PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE FACULTAD DE MATEMÁTICA DEPARTAMENTO DE ESTADÍSTICA PROPIEDADES Y APLICACIONES DE LA FAMILIA DE DISTRIBUCIONES SKEW-NORMAL MULTIVARIADA POR GABRIELA VALDÉS Tesis presentada a la Facultad de Matemática de la Pontificia Universidad Católica de Chile para optar al grado académico de Doctor en Estadística Profesor Guía: Reinaldo Arellano. Abril de 2011 Santiago. Chile. c 2011 Gabriela Valdés.
II c 2011 Gabriela Valdés. Se autoriza la reproducción total o parcial, con fines académicos, por cualquier medio o procedimiento, incluyendo la cita bibliográfica del documento.
III PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE FACULTAD DE MATEMÁTICA DEPARTAMENTO DE ESTADÍSTICA Título de Tesis: Propiedades y Aplicaciones de la Familia de Distribuciones Skew-Normal Multivariada. Autor: Gabriela Valdés. Fecha: Abril de 2011. Santiago. Chile. Profesor Guía: Reinaldo Arellano Comisión: Manuel Galea Francisco Torres Mauricio Castro
Índice general 1. Introducción 1 2. Propiedades 3 2.1. Distribución Normal Truncada Multivariada..................... 4 2.2. Otras propiedades de la distribución Normal Multivariada.................................. 8 2.3. Distribución Half-Normal Multivariada........................ 13 2.4. Normal con Half-Normal................................ 19 2.5. Distribución Skew-Normal Generalizada....................... 22 2.5.1. Función Generadora de Momentos...................... 23 2.5.2. Representación estocástica........................... 25 2.5.3. Representación jerárquica........................... 25 2.5.4. Distribución Marginal............................. 26 2.5.5. Formas Lineales................................ 27 2.5.6. Formas Cuadráticas.............................. 30 2.5.7. Propiedades de la distribución Skew-Normal................. 32 3. Aspectos inferenciales 38 3.1. Matriz de Información: Caso Univariado....................... 39 3.2. Matriz de Información: Caso Multivariado...................... 46 4. Conclusiones 64 5. Apéndice 66 5.1. Definiciones....................................... 66 5.1.1. Producto Directo................................ 66 5.1.2. Vectorización de una Matriz.......................... 66 5.1.3. Matriz de Duplicación............................. 67 IV
5.1.4. Matriz de Conmutación............................ 67 5.1.5. Algunas propiedades útiles.......................... 68 5.2. Comparación de las Matrices de Información.................... 70 5.3. Obtención del caso univariado en base a la Matriz de Información multivariada. 73 Bibliography 74 Bibliografía 74
VI Resumen El presente trabajo tiene por objetivo encontrar y mostrar propiedades no exploradas de la familia de distribuciones Skew-Normal. El modelo utilizado en este trabajo fue planteado por Arellano-Valle y Genton 2005, para el que existe una representación jerárquica que fue utilizada para calcular ciertos momentos. Además, se muestran ciertas condiciones de independencia de combinaciones lineales y cuadrátias de esta distribución. Para poder utilizar esta representación estocástica, fue necesario encontar ciertas propiedades de otras distribuciones, tales como, la distribución Normal-Truncada y la distribución Half-Normal. Finalmente, se muestran resultados para la Matriz de Información de este modelo, señalándose también algunos casos particulares.
Capítulo 1 Introducción La distribución Skew-Normal es una generalización de la distribución Normal, la cual se obtiene si se anula el parámetro de asimetría. El primer autor que escribió sobre esta familia de distribuciones, fue Azzalini 1985, quien planteó la siguiente definición: Si la variable aletoria Z tiene función de distribución ϕz; λ = 2ϕzΦλz < z < donde ϕ y Φ son las funciones de densidad y distribución normal estándar, respectivamente, entonces podemos decir que Z es una variable skew-normal con parámetro λ. A partir de esto, se han escrito una gran variedad de trabajos referentes a esta clase de distribuciones, en donde se han desarrollado algunas generalizaciones para el caso univariado y multivariado. Además se han desarrollado estudios con ciertas aplicaciones de esta distribución para el enfoque clásico y el enfoque Bayesiano. Arellano-Valle & Azzalini 2006 y Arellano-Valle & Genton 2005 realizan un resumen de estas variantes y extensiones. 1
2 Por otro lado, Sahu, Dey y Branco 2003 definen una nueva clase de la distribución Skew-Normal Multivariada, la que tiene la siguiente forma: fy µ, Σ, D = 2 m Σ + D 2 /2 ϕ m {Σ + D 2 /2 y µ}p V > 0 donde µ es un vector m-dimensional, Σ es una matriz definida positiva de dimensiones m m y D es una matriz diagonal con elementos δ 1,..., δ m. Además, V N m DΣ + D 2 y µ, I DΣ + D 2 D, y ϕ m es la densidad de la distribución normal m-variada estándar. Ghosh et. al 2007 resaltan algunas diferencias entre los dos modelos y agregan que el modelo planteado por Sahu, Dey y Branco 2003 es muy conveniente para el enfoque bayesiano. Un artículo importante para el desarrollo de este trabajo, es el presentado por Arellano-Valle y Genton 2005, señalado anteriormente, quienes propusieron la siguiente parametrización: fy µ, Σ, Λ = 2 m ϕ k y µ Σ + Λ ΛΦ m ΛΣ + Λ Λ y µ I m ΛΣ + Λ Λ Λ donde y es un vector de dimensión k 1, Ω es una matriz de dimensión k k y Λ es una matriz de dimensión m k, y ϕ k y Φ m es la funión de densidad k-variada y la función de distribución m-variada de la distribución normal, respectivamente. El objetivo de este trabajo es encontrar ciertas propiedades de esta parametrización de la distribución Skew-Normal, con el fin de que sean utilizadas en investigaciones, ya sea realizando estimaciones sobre los parámetros, desde un punto de vista clásico y Bayesiano, o realizar inferencias posteriores. Para esto, en el segundo capítulo se presentan algunos resultados útiles para distribuciones relacionadas con la Skew-Normal, como son la distribución Normal, Half-Normal y Normal truncada. Luego, en el tercer capítulo se discuten algunos aspectos inferenciales para lo cual se calcula la matriz de información para el caso univariado, la que se extiende después al caso multivariado.
Capítulo 2 Propiedades En este capítulo se presentan algunas propiedades no estándar de varias distribuciones relacionadas con la familia skew-normal, tales como la distribución normal, half-normal y normal truncada. Finalmente, se presentan algunas propiedades de la distribución skew-normal que serán necesarias en algunos cálculos de los capítulos posteriores. 3
4 2.1. Distribución Normal Truncada Multivariada Un vector aleatorio n-dimensional Z tiene distribución normal multivariada, denotada por Z N n µ, Σ si su función de densidad es { ϕ n z µ, Σ = Σ /2 exp 1 } 2 n/2 2 z µ Σ z µ, z R n donde µ R n, Σ R n n Denote por T N n µ, Σ; b, b R n, a la distribución normal n-variada N n µ, Σ, truncada en una región del hiperplano izquierdo de R n definido por {x R n : x > b} = b,. Escribiremos X T N n µ, Σ; b, para decir que la densidad de X tiene la forma fx µ, Σ; b = 1 α ϕ nx µ, ΣI b, x donde α = Φ n µ b, Σ e I b, x es el indicador del evento b,. Teorema 2.1.1 Si X T N n µ, Σ; b, entonces a EX = µ + α Σq n b EXX = µη + ηµ µµ + Σ + α ΣQ n Σ donde η = EX y q n = dφ ns b, Σ ds = Φ nµ b, Σ s=µ Q n = d2 Φ n s b, Σ dsds = Φ nµ b, Σ s=µ
5 Note que, según lo expuesto en Lin et al. 2009, q n se puede expresar como un vector cuyo r-ésimo elemento es f r b r G r con y f r b r = ϕb r µ r, σ rr ϕ n a j x r µ r 2 1, Σr 22 1 dx r G r = j r y donde ϕ n x r µ r 2 1, Σr 22 1 denota la densidad condicional de las restantes n 1 variables dado X r = b r. Además, Q m se puede expresar como la suma de H y A, las cuales son matrices de p p dadas por H = δ rs f r,s b r, b s G rs A = σ rr b r µ r f r b r [ΣH] rr donde [ΣH] rr denota el elemento r, r situado en la diagonal de la matriz ΣH, f r,s b r, b s representa una densidad normal bivariada para la r, s-ésima variable de N n µ, Σ evaluada en b r, b s y G rs = ϕ n 2 j r,s a j x r,s µ r,s 2 1, Σr,s 22 1 dx r,s.
6 Dem. La función generadora de momentos de X T Nµ, Σ; B es M X t = 1 { } Σ exp t /2 x exp α x>b 2 n/2 = 1 { } Σ exp t /2 y + µ α y>b µ 2 = 1 } {t α exp Σ /2 µ exp y>b µ 2 n/2 = 1 {t α exp µ + 1 } 2 t Σt y>b µ 2 = 1 α M Σ /2 N n µ,σt exp z>b µ Σt 2 n/2 = M Nnµ,Σt Φ n µ + Σt b, Σ Φ n µ b, Σ { 1 } 2 x µ Σ x µ dx n/2 exp { 1 } 2 y Σ y dy { 1 y Σ y 2t y } dy 2 Σ /2 n/2 exp { 1 } 2 y Σt Σ y Σt dy { 1 2 z Σ z } dy donde M Nnµ,Σt = exp { t µ + 1 2 t Σt } es la función generadora de momentos de una variable Nµ, Σ La primera derivada de esta función es M Xt = M N nµ,σ tφ n µ + Σt b, Σ Φ n µ b, Σ = M N n µ,σ tφ n µ + Σt b, Σ Φ n µ b, Σ + M Nnµ,Σt Φ n µ + Σt b, Σ Φ n µ b, Σ + M Nnµ,ΣtΣ Φ n s b, Σ Φ n µ b, Σ Por lo que el primer momento tiene la siguiente forma EX = M X 0 = M N n µ,σ 0 + M N nµ,σ0σ Φ n µ b, Σ Φ n µ b, Σ = µ + Σ Φ n µ b, Σ Φ n µ b, Σ = µ + α Σq n
7 De la misma forma, para el segundo momento se tiene que y M Xt = M N n µ,σ tφ n µ + Σt b, Σ + Σ Φ n µ + Σt b, Σ M Nn µ,σ Φ n µ b, Σ Φ n µ b, Σ t [ ] +M N t nµ,σ Σ Φ n µ + Σt b, Σ + Σ Φ n µ + Σt b, Σ Φ n µ b, Σ Φ n µ b, Σ ΣM Nnµ,Σt EXX = M X0 [ = M N n µ,σ 0 + n µ b, Σ ΣΦ Φ n µ b, Σ µ + µ Observación: = Σ + µµ + Σ Φ n µ b, Σ Φ n µ b, Σ µ + µ = µη + ηµ µµ + Σ + α ΣQ n Σ Σ Φ n µ b, Σ Φ n µ b, Σ [ Φ n µ b, Σ Φ n µ b, Σ ] ] + Σ Φ n µ b, Σ Φ n µ b, Σ Σ Σ + Σ Φ n µ b, Σ Φ n µ b, Σ Σ Tomando B = {x = x 1,..., x n x i > µ i ; i = 1,..., n}, se obtiene la distribución half-normal multivariada con densidad dada por f X x = ϕ nx µ, Σ Φµ 0, Σ x µ R n + denotado por X HN m µ, Σ. En particular, cuando µ = 0 y Σ = I se obtiene la distribución half-normal estándar multivariada.
8 2.2. Otras propiedades de la distribución Normal Multivariada En esta sección se revisan algunos resultados no muy conocidos de la distribución normal multivariada que serán útiles para el desarrollo del presente trabajo. Teorema 2.2.1 Sea X = X 1,..., X n N n 0, I n. Entonces a EX p XX = 0, b EX p X q XX = pq + qp + δ pq I n, c EX X = veci n, d EX XX = 0, e EXX XX = I n 2 + K nn + [veci n ][veci n ], f CovX X = I n 2 + K nn, donde p y q pueden asumir cualquier valor desde 1,..., n, δ pq es una función indicadora que vale 1 si p = q y 0 en caso contrario, y pq y K nn está definidas en la sección 5.1.4. Dem. Ver Graybill 1983.
9 Teorema 2.2.2 Sea X N n 0, V. Entonces a EX X = vecv b CovX X = V V I n 2 + K nn = I n 2 + K nn V V Dem. Ver Graybill 1983. Teorema 2.2.3 Sea X N n µ, V. Entonces a EX X = vecv + µ µ, b EX XX = vecv µ + V µ + µ V µ µµ, c CovX X = I n 2 + K nn V V + V µµ + µµ V Dem. Para a y c ver Graybill 1983. Para b ver Arellano-Valle 2010
10 Teorema 2.2.4 Sea Φ m α β, Γ la función de distribución de una variable Normal m-variada con media β y matriz de varianzas-covarianzas Γ, evaluada en el vector α. Entonces, el diferencial de Φ m α β, Γ tiene la siguiente forma d Φ m α β, Γ = q mdα q mdβ + 1 2 vecdγ vecq m donde, q m = Φ mα β, Γ y Q m = Φ mα β, Γ Sigue que, d dα Φ m α β, Γ = q m d dβ Φ m α β, Γ = q m d dvecγ Φ m α β, Γ = 1 2 vecq m Dem. Usando la definición de Φ m se tiene que α d Φ m α β, Γ = d ϕ x β, Γ dx 0 = d ϕ z + α β, Γ dz = = = = 0 0 0 0 d ϕ z + α β, Γ dz ϕ z + α β, Γ d log ϕ z + α β, Γ dz ϕ z + α β, Γ d 12 log Γ 12 { tr Γ z + α βz + α β } dz ϕ z + α β, Γ 1 2 tr { Γ dγ } 1 2 tr { Γ dγγ z + α βz + α β } { tr Γ dα dβ z + α β } dz = 1 2 Φ α β, Γ tr { Γ dγ } 1 α { Γ 2 tr 2 dγ { α } tr Γ dα dβ ϕ x β, Γ x β dx } ϕ x β, Γ x βx β dx
11 Por otro lado, tenemos que si X N m β, Γ, entonces Y = X β N0, Γ α α β ϕ x β, Γ x β dx = ϕ y 0, Γ y dy = Φ m α β, Γ E Y Y α β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ ES donde S T N m 0, Γ; α + β con ES = Φ m α β, Γ Γq m ESS = Γ + Φ m α β, Γ ΓQ m Γ y q m = dφ ms α + β, Γ ds Q m = d2 Φ m s α + β, Γ dsds = Φ mα β, Γ s=0 = Φ mα β, Γ s=0 por lo que α ϕ x β, Γ x dx = q mγ De la misma forma α α β ϕ x β, Γ x βx β dx = ϕ y 0, Γ yy dy = Φ m α β, Γ E Y Y Y α β = Φ m α β, Γ E Y Y Y α + β = Φ m α β, Γ E Y Y Y α + β = Φ m α β, Γ ESS = Φ m α β, Γ Γ + ΓQ m Γ
12 Por lo tanto d Φ m α β, Γ = 1 2 Φ α β, Γ tr { Γ dγ } + 1 2 tr { Γ 2 dγ [Φ m α β, Γ Γ + ΓQ m Γ] } +tr { Γ dα dβq m Γ } = q mdα q mdβ + 1 2 tr {dγq m} = q mdα q mdβ + 1 2 vecdγ vecq m
13 2.3. Distribución Half-Normal Multivariada Un vector aleatorio n-dimensional X tiene distribución half-normal estándar multivariada, denotada por X HN n 0, I n si su función de densidad es f X x = 2 n ϕ n x, x R+. n Teorema 2.3.1 Si W HN n 0, I n representa la distribución half-normal n-variada, entonces sus dos primeros momentos multivariados son: a EW = 2 1/2 1n, b EW W = 1 2 In + 2 1 n1 n. Note también que W = X d =X X > 0, donde X N n 0, I n y para x = x 1,...x n, x = x 1,..., x n Dem. a EW = EW 1,..., W n = EW 1,..., EW n 2 1/2 =,..., 2 1/2 = 2 1/2 1 n b EW W W 1 2 W 1 W 2 W 1 W n = E... W 1 W n W 2 W n Wn 2 EW 1 2 EW 1EW 2 EW 1 EW n =... EW 1 EW n EW 2 EW n EWn 2 2 2 1 =... 2 2 1 = 1 2 I n + 2 1 n1 n
14 Teorema 2.3.2 a EW W = b EW W W = c EW W W = Sea W un vector de n 1 que distribuye HN0, I n. Entonces 1 2 veci n + 2 1 n 2, d i ii + 2 [d i ij + ji + jj ] + d i jk, i j i j k 1/2 2 [ 2 ii d i + [ ii d j + ij d i + ij d j ] i i j 1/2 2 2 i d EW W W W = 3 i + 2 i j k ] ij d k, ii ii + 4 [ ij jj + ij ii + ii ji + ii ij ] i j + i j ii jj + ij ij + ij ji + 2 i j k donde ij se define en la sección 5.1.4. [ ij kk + ij kj + ij ki ] + 4 2 i j k l ij kl.
15 Dem. a Sabemos que W W = vecw W, por lo que EW W = EvecW W = vecew W = vec 1 2 I n + 2 1 n1 n = 1 2 veci n + 2 vec1 n1 n = 1 2 veci n + 2 1 n 2 b Sabemos que W = i W i d i y que W W = jk W j W k jk. Así, EW W W = E i W i d i jk W j W k jk = E W i W j W k d i jk ijk = ijk EW i W j W k d i jk = i=j=k + i=k j + i j k EW 3 i d i ii + i=j k EW 2 i EW j d i ji + EW 2 i EW k d i ik i j=k EW i EW j EW k d i jk EW i EW 2 j d i jj 1/2 2 1/2 2 = 2 d i ii + d i ij + d i ji + d i jj i i j i j i j 3/2 2 + d i jk i j k 1/2 [ 2 = = 2 + 1/2 2 2 i i d i ii + i j ] d i jk 2 i j k d i ii + i j [d i ij + d i ji + d i jj ] [d i ij + ji + jj ] + 2 d i jk i j k
16 c EW W W = E ij W i W j ij k W k d k = E W i W j W k ij d k ijk = ijk EW i W j W k ij d k = i=j=k + i=k j + i j k EW 3 i ii d i + i=j k EW 2 i EW j ij d i + EW 2 i EW k ii d k i j=k EW i EW j EW k ij d k EW i EW 2 j ij d j 1/2 2 1/2 2 = 2 ii d i + ii d j + ij d i + ij d j i i j i j i j 3/2 2 + ij d k i j k 1/2 2 = 2 ii d i + [ ii d j + ij d i + ij d j ] + 2 ij d k i i j i j k
17 d EW W W W = E ij W i W j ij kl W k W l kl = E ijkl W i W j W k W l ij kl = EW i W j W k W l ij kl ijkl = EWi 4 ii ii + EW i EWj 3 ij jj = 3 i=j=k=l + j i=k=l i j=k=l EW 3 i EW j ij ii + + EWi 3 EW l ii il + l i=j=k + i=k j=l + i j k=l EW 2 i EW 2 j ij ij + EWi 3 EW k ii ki k i=j=l i=j k=l i=l j=k EW i EW j EW 2 k ij kk + + EWi 2 EW j EW k ij ki j k l=i + EW i EW j EW k EW l ij kl i j k l i=j=k=l + 4 [ ii ii i j=k=l i=j k=l + EW 2 i EW 2 k ii kk EW 2 i EW 2 j ij ji EW i EWj 2 EW k ij kj i k l=j ij jj + ij ii + ii ki l i=j=k ii il j i=k=l ] k i=j=l + ii kk + ij ij + ij ji + 2 i=k j=l i=l j=k ij kk + ij kj + i j k=l + 4 2 ij kl i j k l i k l=j j k l=i ij ki
18 EW W W W = 3 ii ii i + 4 ij jj + ij ii + ii ji + ii ij i j i j i j i j + ii jj + ij ij + ij ji i j i j i j + 2 ij kk + ij kj + ij ki i j k + 4 2 ij kl i j k l = 3 ii ii + 4 i i j k i j k [ ij jj + ij ii + ii ji + ii ij ] i j + [ ii jj + ij ij + ij ji ] i j + 2 i j k [ ij kk + ij kj + ij ki ] + 4 2 ij kl i j k l
19 2.4. Normal con Half-Normal En esta sección se calculan algunos momentos de productos de variables distribuidas normalmente con variables distribuidas half-normal. Estos resultados son muy útiles para el cálculo de las propiedades de la variable Skew-Nomal. Teorema 2.4.1 Sea W un vector de m 1 que distribuye HN m 0, I m y X un vector de n 1 que distribuye N n 0, Σ. Si W es independiente de X, entonces a EXX W = 2 1/2 Σ 1 m b EXW X = 2 1/2 1 m Σ c EW X X = 2 1/2 1m vecσ d EXX W W = 1 2 Σ Im + 2 Σ 1m 1 m e EW W XX = 1 2 Im Σ + 2 1m 1 m Σ f EW X W X = 1 2 vec Im vecσ + 2 vec 1 m 1 m vecσ g EW X XW = 1 2 Im Σ K km + 2 1m 1 m Σ K km
20 Dem. a EXX W = EXX EW 2 1/2 = Σ 1 m 2 1/2 = Σ 1 m b EXW X = EX X EW I k = EXX EW I k 2 1/2 = Σ 1 m I k 2 1/2 = Σ 1 m I k 2 1/2 = 1 m Σ c EW X X = EW X X = EW EX X 2 1/2 = 1 m vecexx 2 1/2 = 1 m vecσ d EXX W W = EXX EW W = Σ 1 2 = 1 2 I m + 2 1 m1 m Σ I m + 2 Σ 1 m 1 m
21 e EW W XX = EW W EXX = 1 2 I m + 2 1 m1 m Σ = 1 2 I m Σ + 2 1 m 1 m Σ f EW X W X = EW W EX X = EvecW W EvecXX = vec 1 2 I m + 2 1 m1 m vecσ = 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ g [ ] EW X XW = E I m XW W X I m [ ] = E I m XW W X I m [ ] = E W W XX I m [ ] = E W W I k I m XX I m [ ] = E W W I k K mk X I m X I m [ ] = E W W I k K mk XX I m [ ] [ ] = E W W I k K mk E XX I m = 1 2 I m + 2 1 m1 m I k K mk Σ I m = 1 2 I m I k K mk Σ I m + 2 = 1 2 I m I k I m Σ K mk + 2 = 1 2 I m Σ K mk + 2 1 m 1 m Σ K mk 1 m 1 m I k K mk Σ I m 1 m 1 m I k I m Σ K mk
22 2.5. Distribución Skew-Normal Generalizada En esta sección se presentan los resultados más relevantes de la familia de distribuciones Skew- Normal Generalizada. Para lograr obtener estos resultados se aplicarán muchos de los teoremas antes expuestos. Sea Y un vector aleatorio distribuido Skew-Normal Generalizada con parámetros µ, Σ y Λ. Diremos que Y SNG k,m µ, Σ, Λ, si su función de densidad es dada por f Y y = 2 m ϕ k y µ Σ + Λ Λ Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ. donde µ R k, Σ es una matriz definida positiva de dimensiones k k y Λ es una matriz de dimensiones m k Esta distribución corresponde a la familia CSN-2 planteada en Arellano-Valle y Azzalini 2006, en el caso en que γ = 0 y Γ = I m. Vea también Arellano-Valle y Genton 2005. Note que, a partir de esta función de densidad se pueden obtener los siguientes casos particulares: 1. Si m = 1 se obtiene el modelo propuesto por Azzalini & Dalla-Valle 1996 y estudiado con detalle en Azzalini & Capitanio 1999 2. Si k = m y Λ es una matriz diagonal, se obtiene el modelo plantedo por Sahu et al. 2003 3. Si k = m y Λ y Σ son matrices diagonales, se obtiene el modelo Skew-Normal de variables independientes.
23 2.5.1. Función Generadora de Momentos Teorema 2.5.1 Sea Y SNG k,m µ, Σ, Λ. Entonces, la función generadora de Momentos es { M Y t = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Φ m Λt 0, I m Dem. M Y t = Eexp{t Y } = exp{t y}2 m ϕ k R k = 2 m = 2 m Φ m Λ y µ Σ + Λ Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { 1 } 2 y µ Σ + Λ Λ y µ + t y Σ + Λ Λ /2 2 k/2 exp Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy Σ + Λ Λ /2 2 k/2 { exp 1 y Σ + Λ Λ y 2µ Σ + Λ Λ y + µ Σ + Λ Λ µ 2t y 2 Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy }
24 { M Y t = 2 m exp 1 } 2 µ Σ + Λ Λ µ { 1 } exp µ + Σ + Λ Λ t Σ + Λ Λ µ + Σ + Λ Λ t 2 Σ + Λ Λ /2 2 k/2 exp { 1 2 y Σ + Λ Λ y 2 µ Σ + Λ Λ + t y } +µ + Σ + Λ Λ t Σ + Λ Λ µ + Σ + Λ Λ t Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Σ + Λ Λ /2 2 k/2 { exp 1 y µ + Σ + Λ Λ t } Σ + Λ Λ y µ + Σ + Λ Λ t 2 Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { = 2 m exp µ t + 1 } 2 t Σ + Λ Λt E X Φ m Λ Σ + Λ Λ x µ 0, Im ΛΣ + Λ Λ Λ donde X N n µ + Σ + Λ Λ t, Σ + Λ Λ. Por otro lado, aplicando el lema 2.1 de Gupta et al. 2004 se tiene que E X Φ m Λ Σ + Λ Λ x µ 0, Im ΛΣ + Λ Λ Λ = Φ m Λt 0, I m Por lo que { M Y t = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Φ m Λt 0, I m
25 2.5.2. Representación estocástica Para el vector aleatorio Y SNG k,m µ, Σ, Λ se puede usar la siguiente representación estocástica Y = µ + Λ W + X donde W HN m 0, I m es independiente de X N k 0, Σ 2.5.3. Representación jerárquica Para el vector aleatorio Y SNG k,m µ, Σ, Λ se puede usar la siguiente representación jerárquica. Y W N k µ + ΛW, Σ W HN m 0, I m Distribución a posteriori: Según la representación estocástica presentada anteriormente, se puede calcular la distribución a posteriori de W, la que tiene la siguiente forma w Y Lww { exp 1 } 2 y µ + Λw Σ y µ + Λw { exp 1 2 Por lo tanto, exp exp { 12 } ww [ ] } yσ Λw + µ Σ Λw w Λ Σ y + w Λ Σ µ + w Λ Σ Λw + w w { 1 [w ] } Λ Σ Λ + I m w y µ Σ Λw w Λ Σ y µ 2 W Y N m I m + Λ Σ Λ Λ Σ y µ, I m + Λ Σ Λ y sus primeros momentos son EW Y = EW W Y = V arw Y = I m + Λ Σ Λ Λ Σ y µ I m + Λ Σ Λ I m + Λ Σ Λ Λ Σ y µy µ Σ Λ I m + Λ Σ Λ I m + Λ Σ Λ
26 2.5.4. Distribución Marginal Sea Y SNG km µ, Σ, Λ. Por la representación estocástica se tiene que Y = µ + Λ W + X, donde W HN m 0, I m es independiente de X N k 0, Σ, por lo tanto Y 1. = Y k = µ 1 Λ 11 Λ m1 W 1 X 1. +.. +. µ k Λ 1k Λ mk W m X k µ 1 + Λ 11 W 1 + + Λ m1 W m + X 1. µ k + Λ 1k W 1 + + Λ mk W m + X k por lo que Y i = µ i + Λ i W + X i donde µ i es el i-ésimo elemento del vector µ, X i es el i-ésimo elemento del vector X que distribuye N0, σ 2 i y Λ i es la i-ésima columna de la matriz Λ. Por otro lado, si estudiamos la función generadora de momentos, tenemos que M Yi t = M Y1,...,Y i,...,y k 0,..., t,..,0 = 2 m exp {µ 0,..., t,..,0 + 12 } 0,..., t,..,0 Σ + Λ Λ 0,..., t,..,0 Φ m Λ 0,..., t,..,0 0, I m { = 2 m exp µ i t + 1 } 2 t2 σi 2 + Λ i Λ i Φ m Λ i t 0, I m donde σ i es el i-ésimo componente de la diagonal de la matriz Σ y Λ i es la i-ésima columna de la matriz Λ Por lo tanto, Y i SNG 1,m µ i, σ 2 i, Λ i
27 2.5.5. Formas Lineales Teorema 2.5.2 : Sea Y SNG k,m µ, Σ, Λ y X = AY + b, con X vector de dimensiones s 1, A matriz de dimensiones s k, y b vector de dimensiones s 1. Entonces X SNG s,m Aµ + b, AΣA, ΛA Dem. Usando la función generadora de momentos de Y se tiene que M X t = M AY +b t { } = exp b t M Y A t { } = 2 m exp b t exp = 2 m exp { µ A t + 1 2 t A Σ + Λ Λ { µ A + b t + 1 2 t A Σ + Λ Λ A t } A t Φ m ΛA t 0, I m } Φ m ΛA t 0, I m Por lo tanto, X = AY + b SNG s,m Aµ + b, AΣA, ΛA Teorema 2.5.3 : Sea Y SNG k,m 0, Σ, Λ, A una matriz constante de dimensiones n 1 k y B una matriz constante de dimensiones n 2 k. Entonces, AY es independiente de BY si se cumple alguna de las siguientes condiciones 1. AΣB = 0 y ΛA = 0 2. AΣB = 0 y ΛB = 0 Dem. Sabemos que Y d = X X 0 > 0 donde X N k+m 0, Σ + Λ Λ X 0 0 Λ Note que la distribución conjunta de AX, BX, X 0 es AX 0 BX N n 1 +n 2 +m 0, Ω AB 0 Λ A B X 0 Λ I m A Λ B I m
28 donde Ω AB = = = A Σ + Λ Λ A B B A Σ + Λ Λ B Σ + Λ Λ A B A Σ + Λ Λ A A Σ + Λ Λ B B Σ + Λ Λ A B Σ + Λ Λ B Por lo tanto, AX 0 A Σ + Λ Λ A A Σ + Λ Λ B AΛ BX N n 1 +n 2 +m 0, B Σ + Λ Λ A B Σ + Λ Λ B BΛ 0 ΛA ΛB I m X 0 Es decir, AX BX X 0 > 0 SNG n1 +n 2,m 0, AΣA 0 BΣA AΣB, Λ A BΣB B Sea Y AB = Y A = Y B AY BY f Y AB Y AB 0, Σ AB, Λ AB = 2 m ϕ n1 +n 2 Y AB Σ AB + Λ ABΛ AB donde Σ AB = A Σ A B, Λ AB = Λ A B B Φ m Λ AB Σ AB + Λ ABΛ AB Y AB 0, Ω AB y Ω AB = I m Λ AB ΣAB + Λ AB Λ AB Λ AB Si estudiamos la parte de la densidad que depende de ϕ tenemos que, si A Σ + Λ Λ B = 0, entonces ϕ n1 +n 2 Y AB Σ AB + Λ ABΛ AB = ϕ n1 Y A Σ A + Λ AΛ A ϕ n2 Y B Σ B + Λ BΛ B donde Σ A = AΣA, Λ A = ΛA, Σ B = BΣB y Λ B = ΛB
29 Ahora, si estudiamos la parte de la densidad que depende de Φ se tiene que Φ m Λ AB Σ AB + Λ 0, ABΛ AB Y AB ΩAB A = Φ m Λ A Σ + Λ Λ A 0 B 0 B Σ + Λ Λ = Φ m ΛA ΛB A Σ + Λ Λ A 0 = Φ m ΛA A Σ + Λ Λ A B Y A Y B 0, Ω AB 0 Y A B Σ + Λ Λ B Y B ΛB B Σ + Λ Λ B Y A Y B 0, Ω AB = Φ m ΛA A Σ + Λ Λ A Y A + ΛB B Σ + Λ Λ B Y B 0, Ω AB 0, Ω AB Por lo que si ΛA A Σ + Λ Λ A = 0 o ΛB B Σ + Λ Λ B = 0, se logra la separación de la función de densidad. Como A Σ + Λ Λ A > 0 y B Σ + Λ Λ B > 0 al ser matrices de varianzascovarianzas, se tiene que la condición se reduce a ΛA = 0 o ΛB = 0, lo que produce que la primera condición se reduce a AΣB = 0
30 2.5.6. Formas Cuadráticas Teorema 2.5.4 : Sea Y 0 = Y µ SNG k,m 0, Σ, Λ, y sean A y B dos matrices simétricas de dimensiones k k. Entonces, Y 0 AY 0 y Y 0 BY 0 son independientes si y solo si ΛA = ΛB = AΣB = 0 Dem. Calculamos la función generadora de momentos conjunta de Q A = Y 0 AY 0 y Q A = Y 0 BY 0. Si llamamos Ω = Σ + Λ Λ. Por definición, tenemos que } M QA,Q B t, s = exp {ty 0 Ay 0 + sy By 0 2 m ϕ k y 0 ΩΦ m ΛΩ y 0 I m ΛΩ Λ dy 0 R k { = 2 m Ω R /2 exp 1 k 2 y 0 Ω 2tA 2sB } y 0 2 k/2 Φ m ΛΩ y 0 I m ΛΩ Λ dy 0 = 2 m Ω /2 Ω 2tA 2sB /2 R k ϕ k y 0 Ω 2tA 2sB Φ m ΛΩ y 0 I m ΛΩ Λ dy 0 Considerando el cambio de variable tenemos que z = Ω 2tA 2sB 1/2 y0 dy 0 = Ω 2tA 2sB /2 dz M QA,Q B t, s = 2 m I k 2tAΩ 2sBΩ /2 ϕ k z Φ m ΛΩ Ω 2tA 2sB /2 z Im ΛΩ Λ dz R k = 2 m I k 2tAΩ 2sBΩ /2 E Φ m ΛΩ Ω 2tA 2sB /2 Z Im ΛΩ Λ = 2 m I k 2tAΩ 2sBΩ /2 Φ m 0 I m ΛΩ Λ + ΛΩ Ω 2tA 2sB Ω Λ
31 M QA,Q B t, s = 2 m I k 2tAΩ 2sBΩ /2 Φ m 0 I m + 2 tλa + sλb Ω I k 2tAΩ 2sBΩ Ω Λ 2.1 Como M QA = M QA,Q B t, 0 y M QB = M QA,Q B 0, s, 2.1 se factoriza como el producto de sus marginales si y solo si ΛA = ΛB = AΣB = 0 Corolario 2.5.1 rango r y tal que: : Sea Y 0 = Y µ SNG k,m 0, Σ, Λ, y sea A una matriz simétrica de i AΛ = ΛA = 0 ii AΣA = A Entonces Q A = Y 0 AY 0 χ 2 r Dem. De 2.1 se tiene que M QA t = 2 m I k 2tAΩ /2 Φ m 0 I m + 2tΛAΩ I k 2tAΩ Ω Λ Por i se tiene que M QA t = I k 2tAΩ /2 Por ii se tiene que M QA t = 1 2t /2
32 2.5.7. Propiedades de la distribución Skew-Normal El objetivo de esta sección es obtener y mostrar propiedades de esta parametrización de la distribución Skew-Normal, las que pueden ser útiles para realizar estimaciones e inferencia, ya sea clásica o Bayesiana. Para obtener los primeros momentos de esta distribución, se utilizará la representación estocástica presentada en secciones anteriores, lo que genera los siguientes resultados: 2 1/2 EY = µ + Λ 1 m, 2 EY Y = µµ + V ary = 1 2 Λ Λ + Σ 1/2 µ1 mλ + 2 1/2 Λ 1 m µ + 1 2 Λ Λ + 2 Λ 1 m 1 mλ + Σ, Ahora bien, si Y 0 = Y µ y S 0 = Y 0 Y 0. Entonces, se tiene que 2 1/2 EY 0 = Λ 1 m, V ary 0 = V ary = 1 2 Λ Λ + Σ Por otro lado, se sabe que S 0 = Λ W + XΛ W + X = Λ W W Λ + Λ W X + XW Λ + XX ES 0 = 1 2 Λ Λ + 2 Λ 1 m 1 mλ + Σ
33 Teorema 2.5.5 a E S 0 Y 0 Sea Y un vector de k 1 que distribuye SN k µ, Σ, Λ. Entonces, 1/2 2 = 2 Λ ii d i Λ Λ i 1/2 2 + Λ [ ii d j + ij d i + ij d j ] Λ Λ + i j 3/2 2 Λ i j s ij d s Λ Λ + 1/2 2 1 mλ Σ + 1/2 2 Σ 1 mλ b ES 0 S 0 = 3 Λ Λ ii ii Λ Λ i + 4 Λ Λ [ ij jj + ij ii + ii ji + ii ij ] Λ Λ i j + Λ Λ [ ii jj + ij ij + ij ji ] Λ Λ + 2 i j Λ Λ + 4 2 Λ Λ + 2 i j s i j s l [ ij ss + ij sj + ij si ] Λ Λ Λ I k 1m 1 m Σ Λ I k + + 2 Λ Λ vec 1 m 1 m vecσ + + 2 Λ I k Σ jj ij js I k Λ i s j + I k Λ Σ jj ji ij Λ I k i j ij sl Λ Λ + 1 2 Λ I k I m Σ Λ I k 1 2 Λ Λ vec I m vecσ Λ I k i j Σ jj ij ji I k Λ + 2 I k Λ Σ jj ji sj Λ I k + 1 2 vecσvec I m Λ Λ i s j + 2 vecσvec 1 m 1 m Λ Λ + 1 2 I k Λ Σ I m I k Λ + 2 I k Λ Σ 1m 1 m Ik Λ + Σ Σ I k 2 + K kk + vecσvecσ
34 Dem. a E S 0 Y 0 = E Λ W W Λ + Λ W X + XW Λ + XX W Λ + X = E Λ W W Λ W Λ + E Λ W W Λ X + E Λ W X W Λ +E ΛW X X + E XW Λ W Λ + E XW Λ X +E XX W Λ + E XX X = Λ E W W W Λ Λ + Λ E W W X Λ I k +Λ E W X W I k Λ + ΛE W X X + E XW W Λ Λ +E XW X Λ I k + E XX W I k Λ + E XX X = Λ E W W W Λ Λ + E XW X Λ I k +E XX W I k Λ 1/2 2 = 2 Λ ii d i Λ Λ i 1/2 2 + Λ [ ii d j + ij d i + ij d j ] Λ Λ + i j 3/2 2 Λ i j s ij d s Λ Λ + 1/2 2 1 mλ Σ + 1/2 2 Σ 1 mλ
35 b Usando la representación estocástica Y = µ + Λ W + X se tiene que S 0 = Λ W + XΛ W + X = Λ W W Λ + Λ W X + XW Λ + XX ES 0 S 0 = E Λ W W Λ + Λ W X + XW Λ + XX = = Λ W W Λ + Λ W X + XW Λ + XX Λ Λ E W W W W Λ Λ + Λ Λ E W W W X Λ I k + Λ I k E W W XW Λ Λ + Λ I k E W W XX Λ I k + Λ Λ E W X W W I k Λ + Λ Λ E W X W X + Λ I k E W X XW I k Λ + Λ I k E W X XX + I k Λ E XW W W Λ Λ + I k Λ E XW W X Λ I k +E XW XW Λ Λ + E XW XX Λ I k + I k Λ E XX W W I k Λ + I k Λ E XX W X + E XX XW I k Λ + E XX XX Λ Λ E W W W W Λ Λ + Λ I k E W W XX Λ I k + Λ Λ E W X W X + Λ I k E W X XW I k Λ + I k Λ E XW W X Λ I k + E XW XW Λ Λ + I k Λ E XX W W I k Λ + E XX XX Luego, aplicando los teoremas 2.2.2, 2.4.2 y 2.5.1 se obtiene lo siguiente
36 ES 0 S 0 = Λ Λ 3 i ii ii + 4 [ ij jj + ij ii + ii ji + ii ij ] i j + ii jj + ij ij + ij ji + 4 2 ij sl i j i j s l + 2 [ ij ss + ij sj + ij si ] Λ Λ i j s + Λ I k 1 2 I m Σ + 2 1m 1 m Σ Λ I k + Λ Λ 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ + Λ I k 1 2 I m Σ K mk + 2 1m 1 m Σ K mk I k Λ + I k Λ 1 2 K mk I m Σ + 2 K mk 1m 1 m Σ Λ I k + 1 2 + I k Λ 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ Λ Λ Σ I m + 2 Σ 1m 1 m I k Λ + Σ Σ I k 2 + K kk + vecσvecσ = 3 Λ Λ Λ Λ K mm + 4 Λ Λ [ ij jj + ij ii + ii ji + ii ij ] Λ Λ i j + Λ Λ [ ii jj + ij ij + ij ji ] Λ Λ + 2 i j Λ Λ + 4 2 Λ Λ i j s i j s l + 2 Λ 1 m 1 mλ Σ + + 2 Λ Λ vec 1 m 1 m vecσ + 2 + 4 Λ 1 m 1 mλ Σ K kk + 1 2 [ ij ss + ij sj + ij si ] Λ Λ ij sl Λ Λ + 1 2 Λ Λ Σ 1 2 Λ Λ vec I m vecσ 1 2 Λ Λ Σ K kk vecσvec I m Λ Λ + 2 vecσvec 1 m 1 m Λ Λ + 1 2 Σ Λ Λ + 2 Σ Λ 1 m 1 mλ + Σ Σ I k 2 + K kk + vecσvecσ
37 Teorema 2.5.6 Sea Y 0 SNG d,1 0, Ω, α donde fy 0 = 2ϕ d y 0 ; ΩΦη y 0 y sea η = ω α, ζ 0 x = log2φx, y ζ 1 y ζ 2 es la primera y la segunda derivada de ζ 0, repectivamente. Entonces, siempre que las esperanzas existan, E[ζ 1 η Y 0 ] s gw s gy 0 = c s E [Φη W s ] s, s = 1, 2,... donde y W s N d 0, Ω s donde c s = 2 2 s/2 1 + sη Ωη Por lo tanto, si η = λ σ Ω s = Ω + sηη = Ω s1 + sη Ωη Ωηη Ω 1 σ 2 +λ 2, Ω = σ2 + λ 2 y Y 0 = y µ Eζ 2 ηy 0 = c 2 a 0 Eζ 1 ηy 0 = c 1 Eζ 2 ηy 0 Y 0 = c 1 σ 2 λ σ 2 1/2 σ 2 + λ 2 1/2 c 2a 1 Eζ 1 ηy 0 Y 0 = 0 Eζ 2 ηy 0 Y 2 0 = c 2 A 2 donde 1 a 0 = E Φη W 2 W 2 a 1 = E Φη W 2 W 2 2 A 2 = E Φη W 2 Note que es justamente el modelo Skew-Normal de Azzalini y Dalla-Valle 1996, el cual corresponde a un caso particualar del modelo Skew-Normal Generalizado. Dem. Ver Arellano-Valle & Azzalini 2008.
Capítulo 3 Aspectos inferenciales Ahora que ya se presentaron algunas propiedades de la familia de distribuciones utilizado en este trabajo, se muestran a continuación algunos aspectos inferenciales de este modelo. Se calcula en este capítulo, la Matriz de Información de este modelo, la que no ha sido calculada anteriormente y puede resultar muy útil para algunas técnicas de estimación ya sea clásicas o Bayesiana. Como se ha señalado anteriormente, este modelo es muy utilizado para aplicaciones y estimaciones con enfoque Bayesiano, por lo que resulta muy útil conocer las propiedades mostradas en el capítulo anterior, así como también es de interés discutir algunos aspectos inferenciales del mismo. Es por esto, que en principio se presenta el desarrollo del cálculo de la Matriz de Información para el caso univariado, el que es equivalente al modelo planteado por Arellano-Valle y Azzalini 2008. Luego, se calcula la Matriz de Información para el caso multivariado. Finalmente, se obtiene el caso univariado en base a los resultados obtenidos para el caso multivariado. 38
39 3.1. Matriz de Información: Caso Univariado El objetivo de esta sección es calcular la Matriz de Información para la distribución skew-normal, con la reparametrización planteada en la sección 2.5, para el caso univariado. La razón por la que se comenzará con este caso particular, es que se tiene el resultado de esta matriz con la parametrización de Arellano-Valle y Azzalini 2008, y es en el caso univariado en donde estas distruciones son equivalentes. Al finalizar esta sección se hará la transformación de la matriz obtenida a la parametrización de Arellano-Valle y Azzalini 2008 y se confirmará su igualdad. Teorema 3.1 Sea Y SNG 1,1 µ, σ 2, λ, el caso univariado de la distribución Skew-Nomal presentado en la sección 2.5. Entonces, la Matriz de Información es: Iµ, σ 2, λ = I 11 I 12 I 13 I 12 I 22 I 23 I 13 I 23 I 33 donde, 1 I 11 ν = σ 2 + λ 2 + c λ 2 2a 0 σ 2 σ 2 + λ 2 I 22 ν = 1 1 2 σ 2 + λ 2 2 + 1 4 c λ 2 2σ 2 + λ 2 2 2A 2 σ 2 3 σ 2 + λ 2 3 λ 2 I 33 ν = 2 σ 2 + λ 2 2 + c σ 2 2A 2 σ 2 + λ 2 3 2 1/2 λ I 12 ν = σ 2 + λ 2 2 1 2 c λ2σ 2 + λ 2 1 σ 2 1/2 σ 2 + λ 2 5/2 + 1 2 c λ 2 2σ 2 + λ 2 2a 1 σ 2 2 σ 2 + λ 2 2 2 1/2 λ 2 I 13 ν = 2 σ 2 + λ 2 2 + c σ 2 3/2 1 σ 2 + λ 2 5/2 c λ 2a 1 σ 2 + λ 2 2 I 23 ν = λ σ 2 + λ 2 2 1 2 c 2A 2 λ2σ 2 + λ 2 σ 2 σ 2 + λ 2 3
40 y con W N 0, σ2 σ 2 +λ 2 σ 2 +2λ 2 c 1 = c 2 = 2 1/2 σ 2 σ 2 + λ 2 1 1/2 σ 2 σ 2 + 2λ 2 1/2 1/2 a 0 = E Φ λw σ 2 1/2 σ 2 + λ 2 1/2 a 1 = E W Φ λw σ 2 1/2 σ 2 + λ 2 1/2 A 2 = E W 2 Φ λw σ 2 1/2 σ 2 + λ 2 1/2
41 Dem. Sea Y SNG 1,1 µ, σ 2, λ, se tiene que fy µ, σ 2, λ = 2ϕ y µ σ 2 + λ 2 λ Φ σ 2 y µ + λ2 1 λ2 σ 2 + λ 2 Si llamamos ζ 0 x = logφx entonces la log-verosimilitud es: lµ, σ 2, λ = cte 1 2 logσ2 + λ 2 1 y µ 2 λ 2 σ 2 + λ 2 + ζ y µ 0 σ σ 2 + λ 2 Si llamamos ν = µ, σ 2, λ y ζ 1 es la derivada de ζ 0, se tiene que 1 y µ y µ2 dlν = 2σ 2 + λ 2 dσ + 2λdλ σ 2 dµ + + λ2 2σ 2 + λ 2 dσ + 2λdλ 2 [ λy µ y µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dλ + λ σ 2 1/2 σ 2 + λ 2 dµ 1/2 ] 1 λy µ 2 σ 2 3/2 σ 2 + λ 2 1/2 dσ2 1 λy µ 2 σ 2 1/2 σ 2 + λ 2 3/2 dσ2 + 2λdλ 1 λ y µ y = 2σ 2 + λ 2 dσ2 µ2 λy σ 2 dλ + + λ2 σ 2 dµ + + λ2 2σ 2 + λ 2 2 dσ2 µ2 + σ 2 + λ 2 2 dλ [ λy µ y µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dλ λ σ 2 1/2 σ 2 + λ 2 dµ 1/2 = y µ [ y µ 2 σ 2 + λ 2 dµ + 2σ 2 + λ 2 2 1 [ λy µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 λy µ 2σ 2 3/2 σ 2 + λ 2 1/2 dσ2 ] λ 2 y µ σ 2 1/2 σ 2 + λ 2 dλ 3/2 ] dσ 2 + 2σ 2 + λ 2 λy µ 2σ 2 1/2 σ 2 + λ 2 3/2 dσ2 [ ] λy µ 2 σ 2 + λ 2 2 λ σ 2 + λ 2 dλ λ σ 2 1/2 σ 2 + λ 2 1/2 dµ λy µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 ] σ 2 y µ + σ 2 1/2 σ 2 + λ 2 dλ 3/2
42 Ahora, si ζ 2 es la segunda derivada de ζ 0, al calcular la segunda derivada se tiene que d 2 lν = 1 σ 2 + λ 2 dµ2 y µ σ 2 + λ 2 2 dµdσ2 + 2λdλ + y µ σ 2 + λ 2 2 dµdσ2 y µ2 σ 2 + λ 2 3 dσ2 dσ + 2λdλ + 1 2σ 2 + λ 2 2 dσ2 dσ 2 + 2λdλ + y µ2 σ 2 + λ 2 2 dλ2 2λy µ 2λy µ2 + σ 2 + λ 2 dλ dµ 2 σ 2 + λ 2 2 dλdσ2 + 2λdλ 1 λ σ 2 + λ 2 dλ2 + σ 2 + λ 2 2 dλdσ2 + 2λdλ [ λy µ λ +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµ λy µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 σ 2 y µ + σ 2 1/2 σ 2 + λ 2 dλ 3/2 [ λy µ 1 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµdλ + λ 2σ 2 3/2 σ 2 + λ 2 1/2 dµdσ2 λ + 2σ 2 1/2 σ 2 + λ 2 3/2 dµdσ2 + 2λdλ y µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 λ2σ 2 + λ 2 λy µ 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dµ 2σ 2 3/2 σ 2 + λ 2 3/2 2dσ2 + 2λdλdσ 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 5/2 σ 2 + λ 2 3/2 dσ2 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 dσ 2 + 2λdλ y µ σ 2 + σ 2 1/2 σ 2 + λ 2 3/2 dλdσ2 + σ 1/2 σ 2 + λ 2 dλ dµ 3/2 ] σ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 3 σ 2 y µ 2 σ 2 1/2 σ 2 + λ 2 5/2 dλdσ2 + 2λdλ ] 2
43 d 2 lν = 1 σ 2 + λ 2 dµ2 y µ 2λy µ σ 2 + λ 2 2 dµdσ2 σ 2 + λ 2 dµdλ y µ σ 2 + λ 2 2 dµdσ2 y µ2 σ 2 + λ 2 3 dσ2 2 2λy µ2 σ 2 + λ 2 3 dσ2 dλ + 1 2σ 2 + λ 2 2 dσ2 2 + λ σ 2 + λ 2 2 dσ2 dλ y µ2 2λy µ + σ 2 + λ 2 2 dλ2 σ 2 + λ 2 2 dµdλ 1 λ σ 2 + λ 2 dλ2 + σ 2 + λ 2 2 dσ2 dλ 2λ 2 2λy + σ 2 + λ 2 2 dλ2 µ2 σ 2 + λ 2 3 dσ2 dλ 4λ2 y µ 2 σ 2 + λ 2 3 dλ2 [ λy µ λ 2 +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 σ 2 + λ 2 dµ2 + λ2 y µ 2 2σ 2 + λ 2 4σ 2 3 σ 2 + λ 2 3 dσ 2 2 + σ2 2 y µ 2 σ 2 σ 2 + λ 2 3 dλ2 + 2λ2 y µσ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ 2 2λσ2 y µ σ 2 σ 2 + λ 2 2 dµdλ 2λσ2 y µ 2 σ 2 + λ 2 σ 2 2 σ 2 + λ 2 3 dσ 2 dλ [ λy µ 1 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµdλ + λ 2σ 2 3/2 σ 2 + λ 2 1/2 dµdσ2 λ λ 2 + 2σ 2 1/2 σ 2 + λ 2 3/2 dµdσ2 + σ 2 1/2 σ 2 + λ 2 dµdλ 3/2 y µ2σ2 + λ 2 λ2σ 2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 + 2σ 2 3/2 σ 2 + λ 2 3/2 dµdσ2 λy µ σ 2 3/2 σ 2 + λ 2 3/2 dσ2 2 λ 2 y µ σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dλ + 3 λy µ2σ 2 + λ 2 4 σ 2 5/2 σ 2 + λ 2 3/2 dσ2 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 2 + 3 λ 2 y µ2σ 2 + λ 2 y µ 2 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 dλ + σ 2 1/2 σ 2 + λ 2 3/2 dσ2 dλ σ 2 σ 2 1/2 σ 2 + λ 2 3/2 dµdλ σ 2 y µ 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dλ ] 3 σ 2 y µ 3λσ 2 y µ 2 σ 2 1/2 σ 2 + λ 2 5/2 dσ2 dλ σ 2 1/2 σ 2 + λ 2 dλ2 5/2 ]
44 [ d 2 lν = 1 ] [ ] σ 2 + λ 2 dµ 2 1 y µ2 + 2σ 2 + λ 2 2 σ 2 + λ 2 3 dσ 2 2 [ y µ 2 + σ 2 + λ 2 2 + 2λ 2 σ 2 + λ 2 2 1 σ 2 + λ 2 4λ2 y µ 2 ] [ σ 2 + λ 2 3 dλ 2 2y µ + σ 2 + λ 2 2 [ ] [ 4λy µ 2λ 2λy µ2 2λy µ2 + σ 2 + λ 2 2 dµdλ + σ 2 + λ 2 2 σ 2 + λ 2 3 σ 2 + λ 2 3 [ λy µ λ 2 +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 ] dσ 2 dλ σ 2 σ 2 + λ 2 dµ2 + λ2 y µ 2 2σ 2 + λ 2 2 4σ 2 3 σ 2 + λ 2 3 dσ 2 2 ] dµdσ 2 + σ2 2 y µ 2 σ 2 σ 2 + λ 2 3 dλ2 + λ2 y µ2σ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ 2 ] 2λy µ σ 2 + λ 2 2 dµdλ λy µ2 2σ 2 + λ 2 σ 2 σ 2 + λ 2 3 dσ 2 dλ [ λy µ 3 λy µ2σ 2 + λ 2 2 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 4 σ 2 5/2 σ 2 + λ 2 5/2 λy µ σ 2 3/2 σ 2 + λ 2 3/2 dσ 2 2 3σ 2 λy µ + σ 2 1/2 σ 2 + λ 2 5/2 dλ 2 2σ 2 + σ 2 1/2 σ 2 + λ 2 3/2 dµdλ + dµdσ 2 + dσ 2 dλ λ2σ 2 + λ 2 σ 2 3/2 σ 2 + λ 2 3/2 2σ2 + λ 2 y µ σ 2 1/2 σ 2 + λ 2 5/2 ]
45 Para el cálculo de la esparanza ocuparemos algunas de las propiedades enunciadas en el capítulo 2. Así, tomando es cuenta que ζ 2 x = ζ 1 xx + ζ 1 x, E d 2 lν = 1 σ 2 + λ 2 dµ2 + 2 +2 1 2σ 2 + λ 2 2 dσ2 2 + 1/2 λ σ 2 + λ 2 2 dµdσ2 + 4 2λ 2 σ 2 + λ 2 2 dλ2 2 1/2 λ 2 λ 2 2λ +c 2 a 0 σ 2 σ 2 + λ 2 dµ2 + σ 2 + λ 2 2 dσ2 dλ λ 2 2σ 2 + λ 2 2 +c 2 A 2 4σ 2 3 σ 2 + λ 2 3 dσ2 2 + σ 2 λ + c 1 σ 2 1/2 σ 2 + λ 2 1/2 + c 2a 1 λ 2 2σ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ2 c 1 σ 2 + λ 2 2 dµdλ σ 2 σ 2 + λ 2 3 dλ2 λ2σ2 + λ 2 σ 2 σ 2 + λ 2 3 dσ2 dλ 2λ σ 2 + λ 2 2 dµdλ 2σ2 1/2 σ 2 + λ 2 3/2 dµdλ + λ2σ 2 + λ 2 σ 2 3/2 σ 2 + λ 2 3/2 dµdσ2 Finalmente, las expresiones de las esperanzas que componen la Matriz de Información son: 1 I 11 ν = σ 2 + λ 2 + c λ 2 2a 0 σ 2 σ 2 + λ 2 I 22 ν = 1 1 2 σ 2 + λ 2 2 + 1 4 c λ 2 2σ 2 + λ 2 2 2A 2 σ 2 3 σ 2 + λ 2 3 λ 2 I 33 ν = 2 σ 2 + λ 2 2 + c σ 2 2A 2 σ 2 + λ 2 3 2 1/2 λ I 12 ν = σ 2 + λ 2 2 1 2 c λ2σ 2 + λ 2 1 σ 2 1/2 σ 2 + λ 2 5/2 + 1 2 c λ 2 2σ 2 + λ 2 2a 1 σ 2 2 σ 2 + λ 2 2 2 1/2 λ 2 I 13 ν = 2 σ 2 + λ 2 2 + c σ 2 3/2 1 σ 2 + λ 2 5/2 c λ 2a 1 σ 2 + λ 2 2 I 23 ν = λ σ 2 + λ 2 2 1 2 c 2A 2 λ2σ 2 + λ 2 σ 2 σ 2 + λ 2 3 En la sección 5.2 se comparan las matrices de información del modelo planteado por Arellano- Valle & Azzalini 2008 contra el utilizado en este trabajo en el caso univariado, ya que para este caso, los modelos son equivalentes.
46 3.2. Matriz de Información: Caso Multivariado En esta sección se calculará la Matriz de Información usando la parametrización señalada en la sección 2.5 en el caso multivariado. Para esto, se calculará el cuadrado de la primera derivada de la log-verosimilitud, para luego calcular la esperanza de esta expresión. Teorema 3.2 Sea Y SNG k,m µ, Σ, Λ. Entonces, la Matriz de Información es: I 11 I 12 I 13 Iµ, vσ, vecλ = I 12 I 22 I 23 I 13 I 23 I 33 donde, I 11 = 1 2 Σ + Λ Λ Λ ΛΣ + Λ Λ + 2 Σ + Λ Λ Λ 1 m 1 mλ Σ + Λ Λ + Σ + Λ Λ Σ Σ + Λ Λ Σ + Λ Λ R 1 ΛΣ + Λ Λ +Σ + Λ Λ Λ R 2 ΛΣ + Λ Λ
47 I 22 = 1 4 D vec Σ + Λ Λ vec Σ + Λ Λ D + 1 4 D Σ + Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ D + 1 4 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +D Σ + Λ Λ Λ 2 R 4 Σ + Λ Λ Λ D 1 2 D vec Σ + Λ Λ vec Λ Λ Σ + Λ Λ Σ + Λ Λ D 1 2 1 D vec Σ + Λ Λ vec Λ 1 m 1mΛ Σ + Λ Λ Σ + Λ Λ D 1 2 D vec Σ + Λ Λ vecσ Σ + Λ Λ Σ + Λ Λ D 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +D vec Σ + Λ Λ vecr 1 Σ + Λ Λ Λ D + 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ D D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Λ D D Σ + Λ Λ Λ Σ + Λ Λ Λ 2 R 8 Σ + Λ Λ Λ D
48 I 33 = Σ + Λ Λ Λ veci k veci k Σ + Λ Λ Λ + Σ + Λ Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Λ I m R 3 Λ Σ + Λ Λ Im + Σ + Λ Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Im R 4 Σ + Λ Λ Im 2 +4 Σ + Λ Λ ΛΛ 2 R 4 Σ + Λ Λ ΛΛ 2 1 2 Σ + Λ Λ Λ veci k vec Λ Λ Σ + Λ Λ Σ + Λ Λ Λ 4 Σ + Λ Λ Λ veci k vec Λ 1 m 1 mλ Σ + Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ veci k vec Σ Σ + Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ veci k vecr 5 Λ Σ + Λ Λ Im 2 Σ + Λ Λ Λ veci k vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ veci k vecr 1 Σ + Λ Λ Im +4 Σ + Λ Λ Λ veci k vecr 1 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Im +2 Σ + Λ Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Im 2 4 Σ + Λ Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ I m R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ I m R 8 Σ + Λ Λ Im 2 +4 Σ + Λ Λ Λ I m R 8 Σ + Λ Λ ΛΛ +2 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ R 8 Σ + Λ Λ Im 4 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 R 8 Σ + Λ Λ ΛΛ 2 4 Σ + Λ Λ Im R 4 Σ + Λ Λ ΛΛ
49 I 12 = 1 2 2 + 1 2 1/2 Σ + Λ Λ Λ 1 m vec Σ + Λ Λ D Σ + Λ Λ E2 Σ + Λ Λ Σ + Λ Λ D Σ + Λ Λ R9 Λ Σ + Λ Λ Λ Σ + Λ Λ D + 1 2 2 Σ + Λ Λ R10 Σ + Λ Λ Λ D + 1 2 Σ + Λ Λ Λ R 11 vec Σ + Λ Λ D 1 Σ + Λ Λ Λ R 12 Σ + Λ Λ Σ + Λ Λ D 2 1 Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 2 + Σ + Λ Λ Λ R 14 Σ + Λ Λ Λ D 2 I 13 = 1/2 Σ + Λ Λ Λ 1 m veci k Σ + Λ Λ Λ + Σ + Λ Λ E2 Σ + Λ Λ Σ + Λ Λ Λ Σ + Λ Λ R9 Λ Σ + Λ Λ Im + Σ + Λ Λ R9 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ R10 Σ + Λ Λ Im 2 2 Σ + Λ Λ R10 Σ + Λ Λ ΛΛ + Σ + Λ Λ Λ R 11 veci k Σ + Λ Λ Λ Σ + Λ Λ Λ R 12 Σ + Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Im Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ Σ + Λ Λ Λ R 14 Σ + Λ Λ Im 2 +2 Σ + Λ Λ Λ R 14 Σ + Λ Λ ΛΛ
50 I 23 = 1 2 D vec Σ + Λ Λ veci k Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vec Λ Λ Σ + Λ Λ Σ + Λ Λ Λ 1 2 1 D vec Σ + Λ Λ vec Λ 1 m 1mΛ Σ + Λ Λ Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecσ Σ + Λ Λ Σ + Λ Λ Λ + 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Im 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecr 1 Σ + Λ Λ Im 2 +D vec Σ + Λ Λ vecr 1 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Σ + Λ Λ vec Λ Λ veci k Σ + Λ Λ Λ 1 2 1 D Σ + Λ Λ Σ + Λ Λ vecλ 1 m 1 mλveci k Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Σ + Λ Λ vecσveci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Im + 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Im 2 D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ vecr 5 veci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 6 Σ + Λ Λ Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Im + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 8 Σ + Λ Λ Im
51 D Σ + Λ Λ Λ Σ + Λ Λ Λ 2 A 8 Σ + Λ Λ ΛΛ 2 +D Σ + Λ Λ Λ vecr 1 veci k Σ + Λ Λ Λ 2 D Σ + Λ Λ Λ R 7 2 +D Σ + Λ Λ Λ R 8 Σ + Λ Λ Σ + Λ Λ Λ Λ Σ + Λ Λ Im 2 D Σ + Λ Λ Λ R 4 Σ + Λ Λ Im 2 D Σ + Λ Λ Λ R 8 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 +2D Σ + Λ Λ Λ 2 R 4 Σ + Λ Λ ΛΛ
52 donde E 1 = E S 0 S 0 E 2 = E S 0 y 0 fueron definidos en el Teorema 2.6.1, y R 1 = E Ψηy 0 q m R 2 = E Ψ 2 ηq m q m Ψ 2 ηvecq m vecq m R 3 = E R 4 = E Ψ 2 η S 0 q m q m R 5 = E ΨηQ m R 6 = E ΨηvecS 0 vecq m R 7 = E Ψη S 0 y 0 q m R 8 = E Ψ 2 ηvecq m vecq m y 0 R 9 = E Ψηy 0 vecq m R 10 = E Ψη S 0 q m R 11 = E Ψηq m R 12 = E Ψηq m vecs 0 R 13 = E Ψ 2 ηq m vecq m R 14 = E Ψ 2 η y 0 q m q m
53 Dem. Sea Y SNG k,m µ, Σ, Λ, se tiene que fy µ, Σ, Λ = 2 m ϕ k y µ Σ + Λ Λ Φ m ΛΣ + Λ Λ y µ 0, I m ΛΣ + Λ Λ Λ Denotando y 0 = y µ y S 0 = y 0 y 0, la log-verosimilitud es: lµ, Σ, Λ = cte 1 2 log Σ + Λ Λ 1 { } 2 tr Σ + Λ Λ S 0 +log Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ y la primera derivada de la log-verosimilitud es dlµ, Σ, Λ = 1 } {Σ 2 tr + Λ Λ dσ + Λ Λ 1 { 2 tr Σ + Λ Λ dσ + Λ ΛΣ + Λ Λ S 0 Σ + Λ Λ dµy 0 + y 0 dµ } ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ = 1 } { } {Σ 2 tr + Λ Λ dσ tr Σ + Λ Λ Λ dλ + 1 { } } 2 tr Σ + Λ Λ dσσ + Λ Λ S 0 + tr {Σ + Λ Λ Λ dλσ + Λ Λ S 0 +tr {Σ + Λ Λ y 0 dµ } ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ = 1 2 vecdσ vec Σ + Λ Λ vecdλ Σ + Λ Λ Λ veci k + 1 2 vecdσ Σ + Λ Λ Σ + Λ Λ vecs 0 +vecdλ Σ + Λ Λ Λ Σ + Λ Λ vecs 0 +dµ Σ + Λ Λ y0 ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ
54 Para calcular d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ usamos el teorema 2.2.4 con α = Λ Σ + Λ Λ y0, β = 0 y Γ = I m Λ Σ + Λ Λ Λ con lo que se obtiene que dα = dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ + 2Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ = dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ Σ + Λ Λ y0 2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ dγ = dλ Σ + Λ Λ Λ Λ Σ + Λ Λ dσ + 2Λ dλ Σ + Λ Λ Λ Λ Σ + Λ Λ dλ = 2dΛ Σ + Λ Λ Λ + Λ Σ + Λ Λ dσ Σ + Λ Λ Λ +2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ y q m = Φ m Λ Q m = Φ m Σ + Λ Λ 0, y0 Im Λ Σ + Λ Λ Λ Λ Σ + Λ Λ 0, y0 Im Λ Σ + Λ Λ Λ
55 Por lo tanto, d Φ m α β, Γ = 1 2 vec 2dΛ Σ + Λ Λ Λ + Λ Σ + Λ Λ dσ Σ + Λ Λ Λ +q m +2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ vecq m dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ Σ + Λ Λ y0 2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ = vec dλ Σ + Λ Λ Λ vecq m + 1 Λ 2 vec Σ + Λ Λ dσ Σ + Λ Λ Λ vecq m +vec Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ vecq m +q mdλ Σ + Λ Λ y0 q mλ 2q mλ Σ + Λ Λ Λ dλ Σ + Λ Λ dσ Σ + Λ Λ y0 q mλ = vec dλ Σ + Λ Λ Λ I m vecq m + 1 2 vecdσ Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m Σ + Λ Λ y0 Σ + Λ Λ dµ +vecdλ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Im vec q m y 0 2 vecdσ Σ + Λ Λ Λ vec q m y 0 2 2vecdΛ Σ + Λ Λ ΛΛ vec q m y 0 q mλ Σ + Λ Λ dµ
56 d Φ m α β, Γ = vec dλ Σ + Λ Λ Λ I m vecq m + 1 2 dvσ D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Im vec q m y 0 2 dvσ D Σ + Λ Λ Λ vec q m y 0 2 2vecdΛ Σ + Λ Λ ΛΛ vec q m y 0 q mλ Σ + Λ Λ dµ donde D es la matriz de Duplicación definida en el capítulo 2. Sigue que d dµ Φ m α β, Γ = Σ + Λ Λ Λ q m d dvσ Φ m α β, Γ = 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m d dvecλ Φ m α β, Γ = 2 D Σ + Λ Λ Λ vec q m y 0 Σ + Λ Λ Λ I m vecq m + Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m + Σ + Λ Λ Im vec q m y 0 2 2 Σ + Λ Λ ΛΛ vec q m y 0 con α = Λ Σ + Λ Λ y0, β = 0 y Γ = I m Λ Σ + Λ Λ Λ
57 Por lo que, si llamamos Ψη = Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ, se tiene que dlµ, Σ, Λ = 1 2 dvσ D vec Σ + Λ Λ vecdλ Σ + Λ Λ Λ veci k + 1 2 dvσ D Σ + Λ Λ Σ + Λ Λ vecs 0 +vecdλ Σ + Λ Λ Λ Σ + Λ Λ vecs 0 +dµ Σ + Λ Λ y0 ΨηvecdΛ Σ + Λ Λ Λ I m vecq m + 1 2 ΨηdvΣ D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m +ΨηvecdΛ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +ΨηvecdΛ Σ + Λ Λ Im vec q m y 0 2 ΨηdvΣ D Σ + Λ Λ Λ vec q m y 0 2 2ΨηvecdΛ Σ + Λ Λ ΛΛ vec q m y 0 Ψηq m Λ Σ + Λ Λ dµ
58 Las ecuaciones de verosimilitud son d dµ lµ, Σ, Λ = Σ + Λ Λ y0 Ψη Σ + Λ Λ Λ q m Σ + Λ Λ d dvσ lµ, Σ, Λ = 2 D vec d lµ, Σ, Λ = dvecλ + 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 + 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m 2 ΨηD Σ + Λ Λ Λ vec q m y 0 Σ + Λ Λ Λ veci k + Σ + Λ Λ Λ Σ + Λ Λ vecs 0 Ψη Σ + Λ Λ Λ I m vecq m +Ψη Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +Ψη Σ + Λ Λ Im vec q m y 0 2 2Ψη Σ + Λ Λ ΛΛ vec q m y 0
59 Ahora, el cuadrado del Score para cada parámetro es S µ S µ = dµ [ Σ + Λ Λ S 0 Σ + Λ Λ ΨηΣ + Λ Λ y 0 q mλσ + Λ Λ +Ψ 2 ησ + Λ Λ Λ q m q mλσ + Λ Λ ]dµ S Σ SΣ = dvσ [ 1 4 D vec Σ + Λ Λ vec Σ + Λ Λ D + 1 4 D Σ + Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ D + 1 4 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +Ψ 2 ηd Σ + Λ Λ Λ 2 vecq m y 0 vecq m y 0 Σ + Λ Λ Λ D 1 2 D vec Σ + Λ Λ vecs 0 Σ + Λ Λ Σ + Λ Λ D 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ Λ D + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Λ D ] Ψ 2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ Λ D dvσ
60 S Λ SΛ = vecdλ [ Σ + Λ Λ Λ veci k veci k Σ + Λ Λ Λ + Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m Λ Σ + Λ Λ Im +Ψ 2 η Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Im vecq m y 0 vecq m y 0 Σ + Λ Λ Im 2 +4Ψ 2 η Σ + Λ Λ ΛΛ 2 vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ veci k vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +2Ψη Σ + Λ Λ Λ veci k vecq m Λ Σ + Λ Λ Im 2Ψη Σ + Λ Λ Λ veci k vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2Ψη Σ + Λ Λ Λ veci k vecq m y 0 Σ + Λ Λ Im +4Ψη Σ + Λ Λ Λ veci k vecq m y 0 Σ + Λ Λ ΛΛ 2Ψη Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Im +2Ψη Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Im 2 4 Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ ΛΛ 2Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m y 0 Σ + Λ Λ Im 2 +4Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m y 0 Σ + Λ Λ ΛΛ +2Ψ 2 η Λ Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m y 0 Σ + Λ Λ Im 4Ψ 2 η Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ ΛΛ ] 2 4Ψ 2 η Σ + Λ Λ Im vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ vecdλ
61 [ S µ SΣ = dµ 1 Σ + Λ Λ y0 vec Σ + Λ Λ D 2 + 1 Σ + Λ Λ y0 vecs 0 Σ + Λ Λ Σ + Λ Λ D 2 + 1 Σ 2 Ψη + Λ Λ y0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ Λ D + 1 Σ 2 Ψη + Λ Λ Λ q m vec Σ + Λ Λ D 1 Σ 2 Ψη + Λ Λ Λ q m vecs 0 Σ + Λ Λ Σ + Λ Λ D 1 2 Ψ2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D ] 2 +Ψ 2 η Σ + Λ Λ Λ q m vecq m y 0 Σ + Λ Λ Λ D dvσ [ S µ SΛ = dµ Σ + Λ Λ y0 veci k Σ + Λ Λ Λ + Σ + Λ Λ y0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ Ψη Σ + Λ Λ y0 vecq m Λ Σ + Λ Λ Im +Ψη Σ + Λ Λ y0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ Im 2 2Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ ΛΛ +Ψη Σ + Λ Λ Λ q m veci k Σ + Λ Λ Λ Ψη Σ + Λ Λ Λ q m vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Im Ψ 2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ Ψ 2 η Σ + Λ Λ Λ q m vecq m y 0 Σ + Λ Λ Im +2Ψ 2 η Σ + Λ Λ ] 2 Λ q m vecq m y 0 Σ + Λ Λ ΛΛ vecdλ
62 [ S Σ SΛ = dvσ 1 2 D vec Σ + Λ Λ veci k Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecs 0 Σ + Λ Λ Σ + Λ Λ Λ + 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Im 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 1 2 ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ Im 2 +ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 veci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Im + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Im 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ ΛΛ 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m veci k Σ + Λ Λ Λ + 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecs 0 Σ + Λ Λ Σ + Λ Λ Λ
63 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Im + 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m y 0 Σ + Λ Λ Im Ψ 2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ ΛΛ 2 +ΨηD Σ + Λ Λ Λ vecq m y 0 veci k Σ + Λ Λ Λ 2 ΨηD Σ + Λ Λ Λ vecq m y 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ 2 +Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m Λ Σ + Λ Λ Im 2 Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m y 0 Σ + Λ Λ Im 2 +2Ψ 2 ηd Σ + Λ Λ Λ ] 2 vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ vecdλ La Matriz de Información sigue de aplicar las esperanzas para cada cuadrado del Score. En la sección 5.3 se obtiene con exito, el caso particular univariado de esta Matriz de Información. Como se pudo apreciar a lo largo de esta sección, para calcular la Matriz de Información de este modelo en el caso multivariado, fue necesario conocer y aplicar todas las propiedades revisadas en el capítulo anterior, las que no solo comprometen a la distribución Skew-Normal, sino que también se refieren a otras distribuciones, tales como la Half-Normal y la Normla Truncada. La obtención de la Matriz de Información para el caso multivariado en el modelo planteado en este trabajo, es una herramienta útil para el estudio de las propiedades de los estimadores de máxima verosimilitud desde el punto de vista clásico y también es un resultado útil para el desarrollo de modelos paramétricos con enfoque bayesiano.
Capítulo 4 Conclusiones El desarrollo del presente trabajo consistió en la exploración de algunas propiedades no estudiadas de la familia de distribcuiones Skew-Normal basándose en el modelo presentado por Azzalini y Genton 2005. Para lograr este objetivo se revisaron ciertos conceptos, tales como el producto directo entre dos matrices, la vectorización de una matriz y la matriz de duplicación y conmutación. Luego, se estudiaron algunas propiedades para distribuciones relacionadas con la distribución Skew-Normal, tal como la distribución Normal truncada, para la cual se calculó la función generadora de momentos, con lo que se obtuvo los dos primeros momentos. Para la distribución Normal Multivariada se calcularon algunos momentos no conocidos y se obtuvo la forma de d Φ m α β, Γ. Para la distribución Half-Normal se calcularon algunos momentos necesarios para el cálculo de la matriz de información. Al calcular la matriz de información para el caso univariado, se logró llegar a los mismos resultados que la parametrización usada en Arellano-Valle y Azzalini 2008 a través de la matriz jacobiana. Al calcular la matriz de información para el caso multivariado se utilizó la mayoría de los resultados que se presentaron anteriormente, con lo que se llegó a la forma general de la matriz, la que tiene componentes que deben calcularse numericamente. 64