PROPIEDADES Y APLICACIONES DE LA FAMILIA DE DISTRIBUCIONES SKEW-NORMAL MULTIVARIADA

Σχετικά έγγραφα
TRIGONOMETRIA. hipotenusa L 2. hipotenusa

Escenas de episodios anteriores

Métodos Matemáticos en Física L4F. CONDICIONES de CONTORNO+Fuerzas Externas (Cap. 3, libro APL)

1 La teoría de Jeans. t + (n v) = 0 (1) b) Navier-Stokes (conservación del impulso) c) Poisson

TEMA IV: FUNCIONES HIPERGEOMETRICAS

SOLUCIONES DE LAS ACTIVIDADES Págs. 101 a 119

Lógica Proposicional. Justificación de la validez del razonamiento?

Lógica Proposicional

Académico Introducción

την..., επειδή... Se usa cuando se cree que el punto de vista del otro es válido, pero no se concuerda completamente

PÁGINA 106 PÁGINA a) sen 30 = 1/2 b) cos 120 = 1/2. c) tg 135 = 1 d) cos 45 = PÁGINA 109

La transformada de ondícula continua y algunas clases de operadores de localización

EXERCICIOS DE REFORZO: RECTAS E PLANOS

Nro. 01 Septiembre de 2011

Academic Opening Opening - Introduction Greek Spanish En este ensayo/tesis analizaré/investigaré/evaluaré...

Algunas integrales impropias con límites de integración infinitos que involucran a la generalización τ de la función hipergeométrica de Gauss

Inmigración Estudiar. Estudiar - Universidad. Indicar que quieres matricularte. Indicar que quieres matricularte en una asignatura.

ΑΡΧΗ 1 ης ΣΕΛΙΔΑΣ KΕΝΤΡΙΚΗ ΕΠΙΤΡΟΠΗ ΕΙΔΙΚΩΝ ΜΑΘΗΜΑΤΩΝ ΠΑΡΑΣΚΕΥΗ 24 ΙΟΥΝΙΟΥ 2005 ΚΟΙΝΗ ΕΞΕΤΑΣΗ ΟΛΩΝ ΤΩΝ ΥΠΟΨΗΦΙΩΝ ΣΤΑ ΙΣΠΑΝΙΚΑ

Metrología Cuántica e Información Cuántica de Fisher.

FUNCIONES Y FÓRMULAS TRIGONOMÉTRICAS

Una visión alberiana del tema. Abstract *** El marco teórico. democracia, república y emprendedores; alberdiano

Filipenses 2:5-11. Filipenses

FORMULARIO DE ELASTICIDAD

Tema 3. Espazos métricos. Topoloxía Xeral,

Universidad Nacional del Sur

Για να ρωτήσετε αν κάποιος μπορεί να σας βοηθήσει να γεμίσετε μια φόρμα

PAU XUÑO 2011 MATEMÁTICAS II

f) cotg 300 ctg 60 2 d) cos 5 cos 6 Al ser un ángulo del primer cuadrante, todas las razones son positivas. Así, tenemos: tg α 3

ΕΙΣΑΓΩΓΗ INTRODUCCIÓN

Catálogodegrandespotencias

Το παρόν σχέδιο μαθήματος δημιουργήθηκε από την κα. Radost Mazganova, καθηγήτρια Ισπανικών και την κα. Yordanka Yordanova, καθηγήτρια χημείας

TEMA 6.- BIOMOLÉCULAS ORGÁNICAS IV: ÁCIDOS NUCLEICOS

Κυρ. Ιωάννου Οδ. Δωριέων 34 Τ.Κ 8068, Λάρνακα. Adam Smith 8 Crossfield Road Selly Oak Birmingham West Midlands B29 1WQ

Ventiladores helicoidales murales o tubulares, versión PL equipados con hélice de plástico y versión AL equipados con hélice de aluminio.

Tema 1. Espazos topolóxicos. Topoloxía Xeral, 2016

Académico Introducción

March 14, ( ) March 14, / 52

BCE. Compra y Venta de divisas negociadas en el país por el Sistema Financiero privado. banco central del ecuador

La experiencia de la Mesa contra el Racismo

FL/STEM Σχεδιασμός/Πρότυπο μαθήματος (χημεία) 2015/2016. Μάθημα (τίτλος) Οξυγόνο. Παραγωγή οξυγόνου Επίπεδο επάρκειας γλώσσας < Α1 Α2 Β1 Β2 C1

TEST DE INDEPENDENCIA EN SERIES TEMPORALES

ln x, d) y = (3x 5 5x 2 + 7) 8 x


dr 1...dp N exp [ βh ({p}, {r})], (1) p 2 i 2m +Φ(r 1,..., r N ). (2) Z id = N!Λ 3N Z = Q(N,V,T). (6) Z = Z id

AXIAL ES SU MEJOR ELECCIÓN. MÁXIMA CALIDAD ALTA TECNOLOGÍA VARIEDAD DE MODELOS PRESTACIONES SERVICIO. La plegadora de la serie PSE, le ofrece

Problemas resueltos del teorema de Bolzano

Ευρύτερη περιοχή χαράδρας ποταμού Αράχθου

Το ίκτυο Βιβλιοθηκών του Τµήµατος Κοινωνικού Έργου της Caja Madrid. La Red de Bibliotecas de Obra Social Caja Madrid

Métodos Estadísticos en la Ingeniería

Análisis de las Enneadas de Plotino. Gonzalo Hernández Sanjorge A Parte Rei 20

PAU XUÑO 2011 MATEMÁTICAS II

Ταξίδι Τρώγοντας έξω. Τρώγοντας έξω - Στην είσοδο. Τρώγοντας έξω - Παραγγελία φαγητού

LUGARES XEOMÉTRICOS. CÓNICAS

90 LIBERTAS SEGUNDA ÉPOCA. Introducción: La necesidad de una Reforma Institucional

Processi di Markov di nascita e morte. soluzione esprimibile in forma chiusa

ACTIVIDADES INICIALES

IV FESTIVAL LEA. Concurso entre escuelas de aprendizaje del español

PAU XUÑO 2010 MATEMÁTICAS II

Ax = b. 7x = 21. x = 21 7 = 3.

Ταξίδι Γενικά. Γενικά - Τα απαραίτητα. Γενικά - Συνομιλία. Παράκληση για βοήθεια. Ερώτηση σε πρόσωπο αν μιλά αγγλικά

PARTICIPIO DE PRESENTE

Negocios Carta. Carta - Dirección

A proba constará de vinte cuestións tipo test. As cuestións tipo test teñen tres posibles respostas, das que soamente unha é correcta.

Inmigración Documentos

Inmigración Documentos

Tema de aoristo. Morfología y semántica

Tema 7. Glúcidos. Grados de oxidación del Carbono. BIOQUÍMICA-1º de Medicina Dpto. Biología Molecular Isabel Andrés. Alqueno.

-νω. - νω. -σκω. - σκω

CAPÍTULO 6: EL PRONOMBRE DEMOSTRATIVO Y RELATIVO

PAU XUÑO 2012 MATEMÁTICAS II

μέλλων τελευτᾶν 0,25 puntos καὶ βουλόμενος 0,25 puntos τοὺς αὐτοῦ παῖδας ἐμπείρους εἶναι τῆς γεωργίας, 0,5 puntos

Revista de Filosofía Vol. XXV, N 1, 2013 pp Platão, Filebo -


Nro Agosto de 2013

Tema: Enerxía 01/02/06 DEPARTAMENTO DE FÍSICA E QUÍMICA

MATEMÁTICAS. (Responder soamente a unha das opcións de cada bloque temático). BLOQUE 1 (ÁLXEBRA LINEAL) (Puntuación máxima 3 puntos)

ΕΞΕΤΑΣΗ ΤΩΝ ΥΠΟΨΗΦΙΩΝ ΣΤΗΝ ΙΣΠΑΝΙΚΗ ΓΛΩΣΣΑ


TEMA 3. Lípidos. Bioq. Juan Pablo Rodríguez

Introducción a la dinámica estructural por el MEF. Propiedades de inercia de los elementos

X x C(t) description lagrangienne ( X , t t t X x description eulérienne X x 1 1 v x t

m i N 1 F i = j i F ij + F x

PRUEBA INICIAL DE CLASIFICACIÓN CURSO Documento para adjuntar a la Solicitud de plaza

πûùôú ÙˆÓ ÃˆÚˆÓ ÙË ÙÈÓÈÎ ÌÂÚÈÎ

ε x = du dx ε(x) = ds ds = du(x) dx

NÚMEROS COMPLEXOS. Páxina 147 REFLEXIONA E RESOLVE. Extraer fóra da raíz. Potencias de. Como se manexa k 1? Saca fóra da raíz:

Electrodinámica Cuántica

Las Funciones Trigonométricas


Jeux d inondation dans les graphes

CENTRIFUGAL AIR COOLED CONDENSERS CONDENSADORES DE AIRE CENTRÍFUGOS. GPC, GMC and GSC Series. Series GPC, GMC y GSC

2 ÍNDICE GENERAL A Modelo de Wess Zumino Witten. 109 A.1 Propiedades del modelo de WZW B Orden normal y relaciones entre OP

MÉTHODES ET EXERCICES

Q π (/) ^ ^ ^ Η φ. <f) c>o. ^ ο. ö ê ω Q. Ο. o 'c. _o _) o U 03. ,,, ω ^ ^ -g'^ ο 0) f ο. Ε. ιη ο Φ. ο 0) κ. ο 03.,Ο. g 2< οο"" ο φ.

Κυρ. Ιωάννου Οδ. Δωριέων 34 Τ.Κ 8068, Λάρνακα. Adam Smith 8 Crossfield Road Selly Oak Birmingham West Midlands B29 1WQ

EXERCICIOS DE ÁLXEBRA. PAU GALICIA

ΕΛΛΗΝΙΚΟ ΑΝΟΙΚΤΟ ΠΑΝΕΠΙΣΤΗΜΙΟ ΕΚΠΑΙΔΕΥΤΙΚΟ ΥΛΙΚΟ ΓΙΑ ΤΑ ΚΕΝΤΡΑ ΔΙΑ ΒΙΟΥ ΜΑΘΗΣΗΣ

ΕΛΛΗΝΙΚΗ ΔΗΜΟΚΡΑΤΙΑ ΥΠΟΥΡΓΕΙΟ ΟΙΚΟΝΟΜΙΚΩΝ REPÚBLICA HELÉNICA MINISTERIO DE FINANZAS

Εμπορική αλληλογραφία Ηλεκτρονική Αλληλογραφία

Εμπορική αλληλογραφία Επιστολή

Transcript:

PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE FACULTAD DE MATEMÁTICA DEPARTAMENTO DE ESTADÍSTICA PROPIEDADES Y APLICACIONES DE LA FAMILIA DE DISTRIBUCIONES SKEW-NORMAL MULTIVARIADA POR GABRIELA VALDÉS Tesis presentada a la Facultad de Matemática de la Pontificia Universidad Católica de Chile para optar al grado académico de Doctor en Estadística Profesor Guía: Reinaldo Arellano. Abril de 2011 Santiago. Chile. c 2011 Gabriela Valdés.

II c 2011 Gabriela Valdés. Se autoriza la reproducción total o parcial, con fines académicos, por cualquier medio o procedimiento, incluyendo la cita bibliográfica del documento.

III PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE FACULTAD DE MATEMÁTICA DEPARTAMENTO DE ESTADÍSTICA Título de Tesis: Propiedades y Aplicaciones de la Familia de Distribuciones Skew-Normal Multivariada. Autor: Gabriela Valdés. Fecha: Abril de 2011. Santiago. Chile. Profesor Guía: Reinaldo Arellano Comisión: Manuel Galea Francisco Torres Mauricio Castro

Índice general 1. Introducción 1 2. Propiedades 3 2.1. Distribución Normal Truncada Multivariada..................... 4 2.2. Otras propiedades de la distribución Normal Multivariada.................................. 8 2.3. Distribución Half-Normal Multivariada........................ 13 2.4. Normal con Half-Normal................................ 19 2.5. Distribución Skew-Normal Generalizada....................... 22 2.5.1. Función Generadora de Momentos...................... 23 2.5.2. Representación estocástica........................... 25 2.5.3. Representación jerárquica........................... 25 2.5.4. Distribución Marginal............................. 26 2.5.5. Formas Lineales................................ 27 2.5.6. Formas Cuadráticas.............................. 30 2.5.7. Propiedades de la distribución Skew-Normal................. 32 3. Aspectos inferenciales 38 3.1. Matriz de Información: Caso Univariado....................... 39 3.2. Matriz de Información: Caso Multivariado...................... 46 4. Conclusiones 64 5. Apéndice 66 5.1. Definiciones....................................... 66 5.1.1. Producto Directo................................ 66 5.1.2. Vectorización de una Matriz.......................... 66 5.1.3. Matriz de Duplicación............................. 67 IV

5.1.4. Matriz de Conmutación............................ 67 5.1.5. Algunas propiedades útiles.......................... 68 5.2. Comparación de las Matrices de Información.................... 70 5.3. Obtención del caso univariado en base a la Matriz de Información multivariada. 73 Bibliography 74 Bibliografía 74

VI Resumen El presente trabajo tiene por objetivo encontrar y mostrar propiedades no exploradas de la familia de distribuciones Skew-Normal. El modelo utilizado en este trabajo fue planteado por Arellano-Valle y Genton 2005, para el que existe una representación jerárquica que fue utilizada para calcular ciertos momentos. Además, se muestran ciertas condiciones de independencia de combinaciones lineales y cuadrátias de esta distribución. Para poder utilizar esta representación estocástica, fue necesario encontar ciertas propiedades de otras distribuciones, tales como, la distribución Normal-Truncada y la distribución Half-Normal. Finalmente, se muestran resultados para la Matriz de Información de este modelo, señalándose también algunos casos particulares.

Capítulo 1 Introducción La distribución Skew-Normal es una generalización de la distribución Normal, la cual se obtiene si se anula el parámetro de asimetría. El primer autor que escribió sobre esta familia de distribuciones, fue Azzalini 1985, quien planteó la siguiente definición: Si la variable aletoria Z tiene función de distribución ϕz; λ = 2ϕzΦλz < z < donde ϕ y Φ son las funciones de densidad y distribución normal estándar, respectivamente, entonces podemos decir que Z es una variable skew-normal con parámetro λ. A partir de esto, se han escrito una gran variedad de trabajos referentes a esta clase de distribuciones, en donde se han desarrollado algunas generalizaciones para el caso univariado y multivariado. Además se han desarrollado estudios con ciertas aplicaciones de esta distribución para el enfoque clásico y el enfoque Bayesiano. Arellano-Valle & Azzalini 2006 y Arellano-Valle & Genton 2005 realizan un resumen de estas variantes y extensiones. 1

2 Por otro lado, Sahu, Dey y Branco 2003 definen una nueva clase de la distribución Skew-Normal Multivariada, la que tiene la siguiente forma: fy µ, Σ, D = 2 m Σ + D 2 /2 ϕ m {Σ + D 2 /2 y µ}p V > 0 donde µ es un vector m-dimensional, Σ es una matriz definida positiva de dimensiones m m y D es una matriz diagonal con elementos δ 1,..., δ m. Además, V N m DΣ + D 2 y µ, I DΣ + D 2 D, y ϕ m es la densidad de la distribución normal m-variada estándar. Ghosh et. al 2007 resaltan algunas diferencias entre los dos modelos y agregan que el modelo planteado por Sahu, Dey y Branco 2003 es muy conveniente para el enfoque bayesiano. Un artículo importante para el desarrollo de este trabajo, es el presentado por Arellano-Valle y Genton 2005, señalado anteriormente, quienes propusieron la siguiente parametrización: fy µ, Σ, Λ = 2 m ϕ k y µ Σ + Λ ΛΦ m ΛΣ + Λ Λ y µ I m ΛΣ + Λ Λ Λ donde y es un vector de dimensión k 1, Ω es una matriz de dimensión k k y Λ es una matriz de dimensión m k, y ϕ k y Φ m es la funión de densidad k-variada y la función de distribución m-variada de la distribución normal, respectivamente. El objetivo de este trabajo es encontrar ciertas propiedades de esta parametrización de la distribución Skew-Normal, con el fin de que sean utilizadas en investigaciones, ya sea realizando estimaciones sobre los parámetros, desde un punto de vista clásico y Bayesiano, o realizar inferencias posteriores. Para esto, en el segundo capítulo se presentan algunos resultados útiles para distribuciones relacionadas con la Skew-Normal, como son la distribución Normal, Half-Normal y Normal truncada. Luego, en el tercer capítulo se discuten algunos aspectos inferenciales para lo cual se calcula la matriz de información para el caso univariado, la que se extiende después al caso multivariado.

Capítulo 2 Propiedades En este capítulo se presentan algunas propiedades no estándar de varias distribuciones relacionadas con la familia skew-normal, tales como la distribución normal, half-normal y normal truncada. Finalmente, se presentan algunas propiedades de la distribución skew-normal que serán necesarias en algunos cálculos de los capítulos posteriores. 3

4 2.1. Distribución Normal Truncada Multivariada Un vector aleatorio n-dimensional Z tiene distribución normal multivariada, denotada por Z N n µ, Σ si su función de densidad es { ϕ n z µ, Σ = Σ /2 exp 1 } 2 n/2 2 z µ Σ z µ, z R n donde µ R n, Σ R n n Denote por T N n µ, Σ; b, b R n, a la distribución normal n-variada N n µ, Σ, truncada en una región del hiperplano izquierdo de R n definido por {x R n : x > b} = b,. Escribiremos X T N n µ, Σ; b, para decir que la densidad de X tiene la forma fx µ, Σ; b = 1 α ϕ nx µ, ΣI b, x donde α = Φ n µ b, Σ e I b, x es el indicador del evento b,. Teorema 2.1.1 Si X T N n µ, Σ; b, entonces a EX = µ + α Σq n b EXX = µη + ηµ µµ + Σ + α ΣQ n Σ donde η = EX y q n = dφ ns b, Σ ds = Φ nµ b, Σ s=µ Q n = d2 Φ n s b, Σ dsds = Φ nµ b, Σ s=µ

5 Note que, según lo expuesto en Lin et al. 2009, q n se puede expresar como un vector cuyo r-ésimo elemento es f r b r G r con y f r b r = ϕb r µ r, σ rr ϕ n a j x r µ r 2 1, Σr 22 1 dx r G r = j r y donde ϕ n x r µ r 2 1, Σr 22 1 denota la densidad condicional de las restantes n 1 variables dado X r = b r. Además, Q m se puede expresar como la suma de H y A, las cuales son matrices de p p dadas por H = δ rs f r,s b r, b s G rs A = σ rr b r µ r f r b r [ΣH] rr donde [ΣH] rr denota el elemento r, r situado en la diagonal de la matriz ΣH, f r,s b r, b s representa una densidad normal bivariada para la r, s-ésima variable de N n µ, Σ evaluada en b r, b s y G rs = ϕ n 2 j r,s a j x r,s µ r,s 2 1, Σr,s 22 1 dx r,s.

6 Dem. La función generadora de momentos de X T Nµ, Σ; B es M X t = 1 { } Σ exp t /2 x exp α x>b 2 n/2 = 1 { } Σ exp t /2 y + µ α y>b µ 2 = 1 } {t α exp Σ /2 µ exp y>b µ 2 n/2 = 1 {t α exp µ + 1 } 2 t Σt y>b µ 2 = 1 α M Σ /2 N n µ,σt exp z>b µ Σt 2 n/2 = M Nnµ,Σt Φ n µ + Σt b, Σ Φ n µ b, Σ { 1 } 2 x µ Σ x µ dx n/2 exp { 1 } 2 y Σ y dy { 1 y Σ y 2t y } dy 2 Σ /2 n/2 exp { 1 } 2 y Σt Σ y Σt dy { 1 2 z Σ z } dy donde M Nnµ,Σt = exp { t µ + 1 2 t Σt } es la función generadora de momentos de una variable Nµ, Σ La primera derivada de esta función es M Xt = M N nµ,σ tφ n µ + Σt b, Σ Φ n µ b, Σ = M N n µ,σ tφ n µ + Σt b, Σ Φ n µ b, Σ + M Nnµ,Σt Φ n µ + Σt b, Σ Φ n µ b, Σ + M Nnµ,ΣtΣ Φ n s b, Σ Φ n µ b, Σ Por lo que el primer momento tiene la siguiente forma EX = M X 0 = M N n µ,σ 0 + M N nµ,σ0σ Φ n µ b, Σ Φ n µ b, Σ = µ + Σ Φ n µ b, Σ Φ n µ b, Σ = µ + α Σq n

7 De la misma forma, para el segundo momento se tiene que y M Xt = M N n µ,σ tφ n µ + Σt b, Σ + Σ Φ n µ + Σt b, Σ M Nn µ,σ Φ n µ b, Σ Φ n µ b, Σ t [ ] +M N t nµ,σ Σ Φ n µ + Σt b, Σ + Σ Φ n µ + Σt b, Σ Φ n µ b, Σ Φ n µ b, Σ ΣM Nnµ,Σt EXX = M X0 [ = M N n µ,σ 0 + n µ b, Σ ΣΦ Φ n µ b, Σ µ + µ Observación: = Σ + µµ + Σ Φ n µ b, Σ Φ n µ b, Σ µ + µ = µη + ηµ µµ + Σ + α ΣQ n Σ Σ Φ n µ b, Σ Φ n µ b, Σ [ Φ n µ b, Σ Φ n µ b, Σ ] ] + Σ Φ n µ b, Σ Φ n µ b, Σ Σ Σ + Σ Φ n µ b, Σ Φ n µ b, Σ Σ Tomando B = {x = x 1,..., x n x i > µ i ; i = 1,..., n}, se obtiene la distribución half-normal multivariada con densidad dada por f X x = ϕ nx µ, Σ Φµ 0, Σ x µ R n + denotado por X HN m µ, Σ. En particular, cuando µ = 0 y Σ = I se obtiene la distribución half-normal estándar multivariada.

8 2.2. Otras propiedades de la distribución Normal Multivariada En esta sección se revisan algunos resultados no muy conocidos de la distribución normal multivariada que serán útiles para el desarrollo del presente trabajo. Teorema 2.2.1 Sea X = X 1,..., X n N n 0, I n. Entonces a EX p XX = 0, b EX p X q XX = pq + qp + δ pq I n, c EX X = veci n, d EX XX = 0, e EXX XX = I n 2 + K nn + [veci n ][veci n ], f CovX X = I n 2 + K nn, donde p y q pueden asumir cualquier valor desde 1,..., n, δ pq es una función indicadora que vale 1 si p = q y 0 en caso contrario, y pq y K nn está definidas en la sección 5.1.4. Dem. Ver Graybill 1983.

9 Teorema 2.2.2 Sea X N n 0, V. Entonces a EX X = vecv b CovX X = V V I n 2 + K nn = I n 2 + K nn V V Dem. Ver Graybill 1983. Teorema 2.2.3 Sea X N n µ, V. Entonces a EX X = vecv + µ µ, b EX XX = vecv µ + V µ + µ V µ µµ, c CovX X = I n 2 + K nn V V + V µµ + µµ V Dem. Para a y c ver Graybill 1983. Para b ver Arellano-Valle 2010

10 Teorema 2.2.4 Sea Φ m α β, Γ la función de distribución de una variable Normal m-variada con media β y matriz de varianzas-covarianzas Γ, evaluada en el vector α. Entonces, el diferencial de Φ m α β, Γ tiene la siguiente forma d Φ m α β, Γ = q mdα q mdβ + 1 2 vecdγ vecq m donde, q m = Φ mα β, Γ y Q m = Φ mα β, Γ Sigue que, d dα Φ m α β, Γ = q m d dβ Φ m α β, Γ = q m d dvecγ Φ m α β, Γ = 1 2 vecq m Dem. Usando la definición de Φ m se tiene que α d Φ m α β, Γ = d ϕ x β, Γ dx 0 = d ϕ z + α β, Γ dz = = = = 0 0 0 0 d ϕ z + α β, Γ dz ϕ z + α β, Γ d log ϕ z + α β, Γ dz ϕ z + α β, Γ d 12 log Γ 12 { tr Γ z + α βz + α β } dz ϕ z + α β, Γ 1 2 tr { Γ dγ } 1 2 tr { Γ dγγ z + α βz + α β } { tr Γ dα dβ z + α β } dz = 1 2 Φ α β, Γ tr { Γ dγ } 1 α { Γ 2 tr 2 dγ { α } tr Γ dα dβ ϕ x β, Γ x β dx } ϕ x β, Γ x βx β dx

11 Por otro lado, tenemos que si X N m β, Γ, entonces Y = X β N0, Γ α α β ϕ x β, Γ x β dx = ϕ y 0, Γ y dy = Φ m α β, Γ E Y Y α β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ E Y Y α + β = Φ m α β, Γ ES donde S T N m 0, Γ; α + β con ES = Φ m α β, Γ Γq m ESS = Γ + Φ m α β, Γ ΓQ m Γ y q m = dφ ms α + β, Γ ds Q m = d2 Φ m s α + β, Γ dsds = Φ mα β, Γ s=0 = Φ mα β, Γ s=0 por lo que α ϕ x β, Γ x dx = q mγ De la misma forma α α β ϕ x β, Γ x βx β dx = ϕ y 0, Γ yy dy = Φ m α β, Γ E Y Y Y α β = Φ m α β, Γ E Y Y Y α + β = Φ m α β, Γ E Y Y Y α + β = Φ m α β, Γ ESS = Φ m α β, Γ Γ + ΓQ m Γ

12 Por lo tanto d Φ m α β, Γ = 1 2 Φ α β, Γ tr { Γ dγ } + 1 2 tr { Γ 2 dγ [Φ m α β, Γ Γ + ΓQ m Γ] } +tr { Γ dα dβq m Γ } = q mdα q mdβ + 1 2 tr {dγq m} = q mdα q mdβ + 1 2 vecdγ vecq m

13 2.3. Distribución Half-Normal Multivariada Un vector aleatorio n-dimensional X tiene distribución half-normal estándar multivariada, denotada por X HN n 0, I n si su función de densidad es f X x = 2 n ϕ n x, x R+. n Teorema 2.3.1 Si W HN n 0, I n representa la distribución half-normal n-variada, entonces sus dos primeros momentos multivariados son: a EW = 2 1/2 1n, b EW W = 1 2 In + 2 1 n1 n. Note también que W = X d =X X > 0, donde X N n 0, I n y para x = x 1,...x n, x = x 1,..., x n Dem. a EW = EW 1,..., W n = EW 1,..., EW n 2 1/2 =,..., 2 1/2 = 2 1/2 1 n b EW W W 1 2 W 1 W 2 W 1 W n = E... W 1 W n W 2 W n Wn 2 EW 1 2 EW 1EW 2 EW 1 EW n =... EW 1 EW n EW 2 EW n EWn 2 2 2 1 =... 2 2 1 = 1 2 I n + 2 1 n1 n

14 Teorema 2.3.2 a EW W = b EW W W = c EW W W = Sea W un vector de n 1 que distribuye HN0, I n. Entonces 1 2 veci n + 2 1 n 2, d i ii + 2 [d i ij + ji + jj ] + d i jk, i j i j k 1/2 2 [ 2 ii d i + [ ii d j + ij d i + ij d j ] i i j 1/2 2 2 i d EW W W W = 3 i + 2 i j k ] ij d k, ii ii + 4 [ ij jj + ij ii + ii ji + ii ij ] i j + i j ii jj + ij ij + ij ji + 2 i j k donde ij se define en la sección 5.1.4. [ ij kk + ij kj + ij ki ] + 4 2 i j k l ij kl.

15 Dem. a Sabemos que W W = vecw W, por lo que EW W = EvecW W = vecew W = vec 1 2 I n + 2 1 n1 n = 1 2 veci n + 2 vec1 n1 n = 1 2 veci n + 2 1 n 2 b Sabemos que W = i W i d i y que W W = jk W j W k jk. Así, EW W W = E i W i d i jk W j W k jk = E W i W j W k d i jk ijk = ijk EW i W j W k d i jk = i=j=k + i=k j + i j k EW 3 i d i ii + i=j k EW 2 i EW j d i ji + EW 2 i EW k d i ik i j=k EW i EW j EW k d i jk EW i EW 2 j d i jj 1/2 2 1/2 2 = 2 d i ii + d i ij + d i ji + d i jj i i j i j i j 3/2 2 + d i jk i j k 1/2 [ 2 = = 2 + 1/2 2 2 i i d i ii + i j ] d i jk 2 i j k d i ii + i j [d i ij + d i ji + d i jj ] [d i ij + ji + jj ] + 2 d i jk i j k

16 c EW W W = E ij W i W j ij k W k d k = E W i W j W k ij d k ijk = ijk EW i W j W k ij d k = i=j=k + i=k j + i j k EW 3 i ii d i + i=j k EW 2 i EW j ij d i + EW 2 i EW k ii d k i j=k EW i EW j EW k ij d k EW i EW 2 j ij d j 1/2 2 1/2 2 = 2 ii d i + ii d j + ij d i + ij d j i i j i j i j 3/2 2 + ij d k i j k 1/2 2 = 2 ii d i + [ ii d j + ij d i + ij d j ] + 2 ij d k i i j i j k

17 d EW W W W = E ij W i W j ij kl W k W l kl = E ijkl W i W j W k W l ij kl = EW i W j W k W l ij kl ijkl = EWi 4 ii ii + EW i EWj 3 ij jj = 3 i=j=k=l + j i=k=l i j=k=l EW 3 i EW j ij ii + + EWi 3 EW l ii il + l i=j=k + i=k j=l + i j k=l EW 2 i EW 2 j ij ij + EWi 3 EW k ii ki k i=j=l i=j k=l i=l j=k EW i EW j EW 2 k ij kk + + EWi 2 EW j EW k ij ki j k l=i + EW i EW j EW k EW l ij kl i j k l i=j=k=l + 4 [ ii ii i j=k=l i=j k=l + EW 2 i EW 2 k ii kk EW 2 i EW 2 j ij ji EW i EWj 2 EW k ij kj i k l=j ij jj + ij ii + ii ki l i=j=k ii il j i=k=l ] k i=j=l + ii kk + ij ij + ij ji + 2 i=k j=l i=l j=k ij kk + ij kj + i j k=l + 4 2 ij kl i j k l i k l=j j k l=i ij ki

18 EW W W W = 3 ii ii i + 4 ij jj + ij ii + ii ji + ii ij i j i j i j i j + ii jj + ij ij + ij ji i j i j i j + 2 ij kk + ij kj + ij ki i j k + 4 2 ij kl i j k l = 3 ii ii + 4 i i j k i j k [ ij jj + ij ii + ii ji + ii ij ] i j + [ ii jj + ij ij + ij ji ] i j + 2 i j k [ ij kk + ij kj + ij ki ] + 4 2 ij kl i j k l

19 2.4. Normal con Half-Normal En esta sección se calculan algunos momentos de productos de variables distribuidas normalmente con variables distribuidas half-normal. Estos resultados son muy útiles para el cálculo de las propiedades de la variable Skew-Nomal. Teorema 2.4.1 Sea W un vector de m 1 que distribuye HN m 0, I m y X un vector de n 1 que distribuye N n 0, Σ. Si W es independiente de X, entonces a EXX W = 2 1/2 Σ 1 m b EXW X = 2 1/2 1 m Σ c EW X X = 2 1/2 1m vecσ d EXX W W = 1 2 Σ Im + 2 Σ 1m 1 m e EW W XX = 1 2 Im Σ + 2 1m 1 m Σ f EW X W X = 1 2 vec Im vecσ + 2 vec 1 m 1 m vecσ g EW X XW = 1 2 Im Σ K km + 2 1m 1 m Σ K km

20 Dem. a EXX W = EXX EW 2 1/2 = Σ 1 m 2 1/2 = Σ 1 m b EXW X = EX X EW I k = EXX EW I k 2 1/2 = Σ 1 m I k 2 1/2 = Σ 1 m I k 2 1/2 = 1 m Σ c EW X X = EW X X = EW EX X 2 1/2 = 1 m vecexx 2 1/2 = 1 m vecσ d EXX W W = EXX EW W = Σ 1 2 = 1 2 I m + 2 1 m1 m Σ I m + 2 Σ 1 m 1 m

21 e EW W XX = EW W EXX = 1 2 I m + 2 1 m1 m Σ = 1 2 I m Σ + 2 1 m 1 m Σ f EW X W X = EW W EX X = EvecW W EvecXX = vec 1 2 I m + 2 1 m1 m vecσ = 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ g [ ] EW X XW = E I m XW W X I m [ ] = E I m XW W X I m [ ] = E W W XX I m [ ] = E W W I k I m XX I m [ ] = E W W I k K mk X I m X I m [ ] = E W W I k K mk XX I m [ ] [ ] = E W W I k K mk E XX I m = 1 2 I m + 2 1 m1 m I k K mk Σ I m = 1 2 I m I k K mk Σ I m + 2 = 1 2 I m I k I m Σ K mk + 2 = 1 2 I m Σ K mk + 2 1 m 1 m Σ K mk 1 m 1 m I k K mk Σ I m 1 m 1 m I k I m Σ K mk

22 2.5. Distribución Skew-Normal Generalizada En esta sección se presentan los resultados más relevantes de la familia de distribuciones Skew- Normal Generalizada. Para lograr obtener estos resultados se aplicarán muchos de los teoremas antes expuestos. Sea Y un vector aleatorio distribuido Skew-Normal Generalizada con parámetros µ, Σ y Λ. Diremos que Y SNG k,m µ, Σ, Λ, si su función de densidad es dada por f Y y = 2 m ϕ k y µ Σ + Λ Λ Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ. donde µ R k, Σ es una matriz definida positiva de dimensiones k k y Λ es una matriz de dimensiones m k Esta distribución corresponde a la familia CSN-2 planteada en Arellano-Valle y Azzalini 2006, en el caso en que γ = 0 y Γ = I m. Vea también Arellano-Valle y Genton 2005. Note que, a partir de esta función de densidad se pueden obtener los siguientes casos particulares: 1. Si m = 1 se obtiene el modelo propuesto por Azzalini & Dalla-Valle 1996 y estudiado con detalle en Azzalini & Capitanio 1999 2. Si k = m y Λ es una matriz diagonal, se obtiene el modelo plantedo por Sahu et al. 2003 3. Si k = m y Λ y Σ son matrices diagonales, se obtiene el modelo Skew-Normal de variables independientes.

23 2.5.1. Función Generadora de Momentos Teorema 2.5.1 Sea Y SNG k,m µ, Σ, Λ. Entonces, la función generadora de Momentos es { M Y t = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Φ m Λt 0, I m Dem. M Y t = Eexp{t Y } = exp{t y}2 m ϕ k R k = 2 m = 2 m Φ m Λ y µ Σ + Λ Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { 1 } 2 y µ Σ + Λ Λ y µ + t y Σ + Λ Λ /2 2 k/2 exp Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy Σ + Λ Λ /2 2 k/2 { exp 1 y Σ + Λ Λ y 2µ Σ + Λ Λ y + µ Σ + Λ Λ µ 2t y 2 Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy }

24 { M Y t = 2 m exp 1 } 2 µ Σ + Λ Λ µ { 1 } exp µ + Σ + Λ Λ t Σ + Λ Λ µ + Σ + Λ Λ t 2 Σ + Λ Λ /2 2 k/2 exp { 1 2 y Σ + Λ Λ y 2 µ Σ + Λ Λ + t y } +µ + Σ + Λ Λ t Σ + Λ Λ µ + Σ + Λ Λ t Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Σ + Λ Λ /2 2 k/2 { exp 1 y µ + Σ + Λ Λ t } Σ + Λ Λ y µ + Σ + Λ Λ t 2 Φ m Λ Σ + Λ Λ y µ 0, Im ΛΣ + Λ Λ Λ dy { = 2 m exp µ t + 1 } 2 t Σ + Λ Λt E X Φ m Λ Σ + Λ Λ x µ 0, Im ΛΣ + Λ Λ Λ donde X N n µ + Σ + Λ Λ t, Σ + Λ Λ. Por otro lado, aplicando el lema 2.1 de Gupta et al. 2004 se tiene que E X Φ m Λ Σ + Λ Λ x µ 0, Im ΛΣ + Λ Λ Λ = Φ m Λt 0, I m Por lo que { M Y t = 2 m exp µ t + 1 } 2 t Σ + Λ Λt Φ m Λt 0, I m

25 2.5.2. Representación estocástica Para el vector aleatorio Y SNG k,m µ, Σ, Λ se puede usar la siguiente representación estocástica Y = µ + Λ W + X donde W HN m 0, I m es independiente de X N k 0, Σ 2.5.3. Representación jerárquica Para el vector aleatorio Y SNG k,m µ, Σ, Λ se puede usar la siguiente representación jerárquica. Y W N k µ + ΛW, Σ W HN m 0, I m Distribución a posteriori: Según la representación estocástica presentada anteriormente, se puede calcular la distribución a posteriori de W, la que tiene la siguiente forma w Y Lww { exp 1 } 2 y µ + Λw Σ y µ + Λw { exp 1 2 Por lo tanto, exp exp { 12 } ww [ ] } yσ Λw + µ Σ Λw w Λ Σ y + w Λ Σ µ + w Λ Σ Λw + w w { 1 [w ] } Λ Σ Λ + I m w y µ Σ Λw w Λ Σ y µ 2 W Y N m I m + Λ Σ Λ Λ Σ y µ, I m + Λ Σ Λ y sus primeros momentos son EW Y = EW W Y = V arw Y = I m + Λ Σ Λ Λ Σ y µ I m + Λ Σ Λ I m + Λ Σ Λ Λ Σ y µy µ Σ Λ I m + Λ Σ Λ I m + Λ Σ Λ

26 2.5.4. Distribución Marginal Sea Y SNG km µ, Σ, Λ. Por la representación estocástica se tiene que Y = µ + Λ W + X, donde W HN m 0, I m es independiente de X N k 0, Σ, por lo tanto Y 1. = Y k = µ 1 Λ 11 Λ m1 W 1 X 1. +.. +. µ k Λ 1k Λ mk W m X k µ 1 + Λ 11 W 1 + + Λ m1 W m + X 1. µ k + Λ 1k W 1 + + Λ mk W m + X k por lo que Y i = µ i + Λ i W + X i donde µ i es el i-ésimo elemento del vector µ, X i es el i-ésimo elemento del vector X que distribuye N0, σ 2 i y Λ i es la i-ésima columna de la matriz Λ. Por otro lado, si estudiamos la función generadora de momentos, tenemos que M Yi t = M Y1,...,Y i,...,y k 0,..., t,..,0 = 2 m exp {µ 0,..., t,..,0 + 12 } 0,..., t,..,0 Σ + Λ Λ 0,..., t,..,0 Φ m Λ 0,..., t,..,0 0, I m { = 2 m exp µ i t + 1 } 2 t2 σi 2 + Λ i Λ i Φ m Λ i t 0, I m donde σ i es el i-ésimo componente de la diagonal de la matriz Σ y Λ i es la i-ésima columna de la matriz Λ Por lo tanto, Y i SNG 1,m µ i, σ 2 i, Λ i

27 2.5.5. Formas Lineales Teorema 2.5.2 : Sea Y SNG k,m µ, Σ, Λ y X = AY + b, con X vector de dimensiones s 1, A matriz de dimensiones s k, y b vector de dimensiones s 1. Entonces X SNG s,m Aµ + b, AΣA, ΛA Dem. Usando la función generadora de momentos de Y se tiene que M X t = M AY +b t { } = exp b t M Y A t { } = 2 m exp b t exp = 2 m exp { µ A t + 1 2 t A Σ + Λ Λ { µ A + b t + 1 2 t A Σ + Λ Λ A t } A t Φ m ΛA t 0, I m } Φ m ΛA t 0, I m Por lo tanto, X = AY + b SNG s,m Aµ + b, AΣA, ΛA Teorema 2.5.3 : Sea Y SNG k,m 0, Σ, Λ, A una matriz constante de dimensiones n 1 k y B una matriz constante de dimensiones n 2 k. Entonces, AY es independiente de BY si se cumple alguna de las siguientes condiciones 1. AΣB = 0 y ΛA = 0 2. AΣB = 0 y ΛB = 0 Dem. Sabemos que Y d = X X 0 > 0 donde X N k+m 0, Σ + Λ Λ X 0 0 Λ Note que la distribución conjunta de AX, BX, X 0 es AX 0 BX N n 1 +n 2 +m 0, Ω AB 0 Λ A B X 0 Λ I m A Λ B I m

28 donde Ω AB = = = A Σ + Λ Λ A B B A Σ + Λ Λ B Σ + Λ Λ A B A Σ + Λ Λ A A Σ + Λ Λ B B Σ + Λ Λ A B Σ + Λ Λ B Por lo tanto, AX 0 A Σ + Λ Λ A A Σ + Λ Λ B AΛ BX N n 1 +n 2 +m 0, B Σ + Λ Λ A B Σ + Λ Λ B BΛ 0 ΛA ΛB I m X 0 Es decir, AX BX X 0 > 0 SNG n1 +n 2,m 0, AΣA 0 BΣA AΣB, Λ A BΣB B Sea Y AB = Y A = Y B AY BY f Y AB Y AB 0, Σ AB, Λ AB = 2 m ϕ n1 +n 2 Y AB Σ AB + Λ ABΛ AB donde Σ AB = A Σ A B, Λ AB = Λ A B B Φ m Λ AB Σ AB + Λ ABΛ AB Y AB 0, Ω AB y Ω AB = I m Λ AB ΣAB + Λ AB Λ AB Λ AB Si estudiamos la parte de la densidad que depende de ϕ tenemos que, si A Σ + Λ Λ B = 0, entonces ϕ n1 +n 2 Y AB Σ AB + Λ ABΛ AB = ϕ n1 Y A Σ A + Λ AΛ A ϕ n2 Y B Σ B + Λ BΛ B donde Σ A = AΣA, Λ A = ΛA, Σ B = BΣB y Λ B = ΛB

29 Ahora, si estudiamos la parte de la densidad que depende de Φ se tiene que Φ m Λ AB Σ AB + Λ 0, ABΛ AB Y AB ΩAB A = Φ m Λ A Σ + Λ Λ A 0 B 0 B Σ + Λ Λ = Φ m ΛA ΛB A Σ + Λ Λ A 0 = Φ m ΛA A Σ + Λ Λ A B Y A Y B 0, Ω AB 0 Y A B Σ + Λ Λ B Y B ΛB B Σ + Λ Λ B Y A Y B 0, Ω AB = Φ m ΛA A Σ + Λ Λ A Y A + ΛB B Σ + Λ Λ B Y B 0, Ω AB 0, Ω AB Por lo que si ΛA A Σ + Λ Λ A = 0 o ΛB B Σ + Λ Λ B = 0, se logra la separación de la función de densidad. Como A Σ + Λ Λ A > 0 y B Σ + Λ Λ B > 0 al ser matrices de varianzascovarianzas, se tiene que la condición se reduce a ΛA = 0 o ΛB = 0, lo que produce que la primera condición se reduce a AΣB = 0

30 2.5.6. Formas Cuadráticas Teorema 2.5.4 : Sea Y 0 = Y µ SNG k,m 0, Σ, Λ, y sean A y B dos matrices simétricas de dimensiones k k. Entonces, Y 0 AY 0 y Y 0 BY 0 son independientes si y solo si ΛA = ΛB = AΣB = 0 Dem. Calculamos la función generadora de momentos conjunta de Q A = Y 0 AY 0 y Q A = Y 0 BY 0. Si llamamos Ω = Σ + Λ Λ. Por definición, tenemos que } M QA,Q B t, s = exp {ty 0 Ay 0 + sy By 0 2 m ϕ k y 0 ΩΦ m ΛΩ y 0 I m ΛΩ Λ dy 0 R k { = 2 m Ω R /2 exp 1 k 2 y 0 Ω 2tA 2sB } y 0 2 k/2 Φ m ΛΩ y 0 I m ΛΩ Λ dy 0 = 2 m Ω /2 Ω 2tA 2sB /2 R k ϕ k y 0 Ω 2tA 2sB Φ m ΛΩ y 0 I m ΛΩ Λ dy 0 Considerando el cambio de variable tenemos que z = Ω 2tA 2sB 1/2 y0 dy 0 = Ω 2tA 2sB /2 dz M QA,Q B t, s = 2 m I k 2tAΩ 2sBΩ /2 ϕ k z Φ m ΛΩ Ω 2tA 2sB /2 z Im ΛΩ Λ dz R k = 2 m I k 2tAΩ 2sBΩ /2 E Φ m ΛΩ Ω 2tA 2sB /2 Z Im ΛΩ Λ = 2 m I k 2tAΩ 2sBΩ /2 Φ m 0 I m ΛΩ Λ + ΛΩ Ω 2tA 2sB Ω Λ

31 M QA,Q B t, s = 2 m I k 2tAΩ 2sBΩ /2 Φ m 0 I m + 2 tλa + sλb Ω I k 2tAΩ 2sBΩ Ω Λ 2.1 Como M QA = M QA,Q B t, 0 y M QB = M QA,Q B 0, s, 2.1 se factoriza como el producto de sus marginales si y solo si ΛA = ΛB = AΣB = 0 Corolario 2.5.1 rango r y tal que: : Sea Y 0 = Y µ SNG k,m 0, Σ, Λ, y sea A una matriz simétrica de i AΛ = ΛA = 0 ii AΣA = A Entonces Q A = Y 0 AY 0 χ 2 r Dem. De 2.1 se tiene que M QA t = 2 m I k 2tAΩ /2 Φ m 0 I m + 2tΛAΩ I k 2tAΩ Ω Λ Por i se tiene que M QA t = I k 2tAΩ /2 Por ii se tiene que M QA t = 1 2t /2

32 2.5.7. Propiedades de la distribución Skew-Normal El objetivo de esta sección es obtener y mostrar propiedades de esta parametrización de la distribución Skew-Normal, las que pueden ser útiles para realizar estimaciones e inferencia, ya sea clásica o Bayesiana. Para obtener los primeros momentos de esta distribución, se utilizará la representación estocástica presentada en secciones anteriores, lo que genera los siguientes resultados: 2 1/2 EY = µ + Λ 1 m, 2 EY Y = µµ + V ary = 1 2 Λ Λ + Σ 1/2 µ1 mλ + 2 1/2 Λ 1 m µ + 1 2 Λ Λ + 2 Λ 1 m 1 mλ + Σ, Ahora bien, si Y 0 = Y µ y S 0 = Y 0 Y 0. Entonces, se tiene que 2 1/2 EY 0 = Λ 1 m, V ary 0 = V ary = 1 2 Λ Λ + Σ Por otro lado, se sabe que S 0 = Λ W + XΛ W + X = Λ W W Λ + Λ W X + XW Λ + XX ES 0 = 1 2 Λ Λ + 2 Λ 1 m 1 mλ + Σ

33 Teorema 2.5.5 a E S 0 Y 0 Sea Y un vector de k 1 que distribuye SN k µ, Σ, Λ. Entonces, 1/2 2 = 2 Λ ii d i Λ Λ i 1/2 2 + Λ [ ii d j + ij d i + ij d j ] Λ Λ + i j 3/2 2 Λ i j s ij d s Λ Λ + 1/2 2 1 mλ Σ + 1/2 2 Σ 1 mλ b ES 0 S 0 = 3 Λ Λ ii ii Λ Λ i + 4 Λ Λ [ ij jj + ij ii + ii ji + ii ij ] Λ Λ i j + Λ Λ [ ii jj + ij ij + ij ji ] Λ Λ + 2 i j Λ Λ + 4 2 Λ Λ + 2 i j s i j s l [ ij ss + ij sj + ij si ] Λ Λ Λ I k 1m 1 m Σ Λ I k + + 2 Λ Λ vec 1 m 1 m vecσ + + 2 Λ I k Σ jj ij js I k Λ i s j + I k Λ Σ jj ji ij Λ I k i j ij sl Λ Λ + 1 2 Λ I k I m Σ Λ I k 1 2 Λ Λ vec I m vecσ Λ I k i j Σ jj ij ji I k Λ + 2 I k Λ Σ jj ji sj Λ I k + 1 2 vecσvec I m Λ Λ i s j + 2 vecσvec 1 m 1 m Λ Λ + 1 2 I k Λ Σ I m I k Λ + 2 I k Λ Σ 1m 1 m Ik Λ + Σ Σ I k 2 + K kk + vecσvecσ

34 Dem. a E S 0 Y 0 = E Λ W W Λ + Λ W X + XW Λ + XX W Λ + X = E Λ W W Λ W Λ + E Λ W W Λ X + E Λ W X W Λ +E ΛW X X + E XW Λ W Λ + E XW Λ X +E XX W Λ + E XX X = Λ E W W W Λ Λ + Λ E W W X Λ I k +Λ E W X W I k Λ + ΛE W X X + E XW W Λ Λ +E XW X Λ I k + E XX W I k Λ + E XX X = Λ E W W W Λ Λ + E XW X Λ I k +E XX W I k Λ 1/2 2 = 2 Λ ii d i Λ Λ i 1/2 2 + Λ [ ii d j + ij d i + ij d j ] Λ Λ + i j 3/2 2 Λ i j s ij d s Λ Λ + 1/2 2 1 mλ Σ + 1/2 2 Σ 1 mλ

35 b Usando la representación estocástica Y = µ + Λ W + X se tiene que S 0 = Λ W + XΛ W + X = Λ W W Λ + Λ W X + XW Λ + XX ES 0 S 0 = E Λ W W Λ + Λ W X + XW Λ + XX = = Λ W W Λ + Λ W X + XW Λ + XX Λ Λ E W W W W Λ Λ + Λ Λ E W W W X Λ I k + Λ I k E W W XW Λ Λ + Λ I k E W W XX Λ I k + Λ Λ E W X W W I k Λ + Λ Λ E W X W X + Λ I k E W X XW I k Λ + Λ I k E W X XX + I k Λ E XW W W Λ Λ + I k Λ E XW W X Λ I k +E XW XW Λ Λ + E XW XX Λ I k + I k Λ E XX W W I k Λ + I k Λ E XX W X + E XX XW I k Λ + E XX XX Λ Λ E W W W W Λ Λ + Λ I k E W W XX Λ I k + Λ Λ E W X W X + Λ I k E W X XW I k Λ + I k Λ E XW W X Λ I k + E XW XW Λ Λ + I k Λ E XX W W I k Λ + E XX XX Luego, aplicando los teoremas 2.2.2, 2.4.2 y 2.5.1 se obtiene lo siguiente

36 ES 0 S 0 = Λ Λ 3 i ii ii + 4 [ ij jj + ij ii + ii ji + ii ij ] i j + ii jj + ij ij + ij ji + 4 2 ij sl i j i j s l + 2 [ ij ss + ij sj + ij si ] Λ Λ i j s + Λ I k 1 2 I m Σ + 2 1m 1 m Σ Λ I k + Λ Λ 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ + Λ I k 1 2 I m Σ K mk + 2 1m 1 m Σ K mk I k Λ + I k Λ 1 2 K mk I m Σ + 2 K mk 1m 1 m Σ Λ I k + 1 2 + I k Λ 1 2 vec I m vecσ + 2 vec 1 m 1 m vecσ Λ Λ Σ I m + 2 Σ 1m 1 m I k Λ + Σ Σ I k 2 + K kk + vecσvecσ = 3 Λ Λ Λ Λ K mm + 4 Λ Λ [ ij jj + ij ii + ii ji + ii ij ] Λ Λ i j + Λ Λ [ ii jj + ij ij + ij ji ] Λ Λ + 2 i j Λ Λ + 4 2 Λ Λ i j s i j s l + 2 Λ 1 m 1 mλ Σ + + 2 Λ Λ vec 1 m 1 m vecσ + 2 + 4 Λ 1 m 1 mλ Σ K kk + 1 2 [ ij ss + ij sj + ij si ] Λ Λ ij sl Λ Λ + 1 2 Λ Λ Σ 1 2 Λ Λ vec I m vecσ 1 2 Λ Λ Σ K kk vecσvec I m Λ Λ + 2 vecσvec 1 m 1 m Λ Λ + 1 2 Σ Λ Λ + 2 Σ Λ 1 m 1 mλ + Σ Σ I k 2 + K kk + vecσvecσ

37 Teorema 2.5.6 Sea Y 0 SNG d,1 0, Ω, α donde fy 0 = 2ϕ d y 0 ; ΩΦη y 0 y sea η = ω α, ζ 0 x = log2φx, y ζ 1 y ζ 2 es la primera y la segunda derivada de ζ 0, repectivamente. Entonces, siempre que las esperanzas existan, E[ζ 1 η Y 0 ] s gw s gy 0 = c s E [Φη W s ] s, s = 1, 2,... donde y W s N d 0, Ω s donde c s = 2 2 s/2 1 + sη Ωη Por lo tanto, si η = λ σ Ω s = Ω + sηη = Ω s1 + sη Ωη Ωηη Ω 1 σ 2 +λ 2, Ω = σ2 + λ 2 y Y 0 = y µ Eζ 2 ηy 0 = c 2 a 0 Eζ 1 ηy 0 = c 1 Eζ 2 ηy 0 Y 0 = c 1 σ 2 λ σ 2 1/2 σ 2 + λ 2 1/2 c 2a 1 Eζ 1 ηy 0 Y 0 = 0 Eζ 2 ηy 0 Y 2 0 = c 2 A 2 donde 1 a 0 = E Φη W 2 W 2 a 1 = E Φη W 2 W 2 2 A 2 = E Φη W 2 Note que es justamente el modelo Skew-Normal de Azzalini y Dalla-Valle 1996, el cual corresponde a un caso particualar del modelo Skew-Normal Generalizado. Dem. Ver Arellano-Valle & Azzalini 2008.

Capítulo 3 Aspectos inferenciales Ahora que ya se presentaron algunas propiedades de la familia de distribuciones utilizado en este trabajo, se muestran a continuación algunos aspectos inferenciales de este modelo. Se calcula en este capítulo, la Matriz de Información de este modelo, la que no ha sido calculada anteriormente y puede resultar muy útil para algunas técnicas de estimación ya sea clásicas o Bayesiana. Como se ha señalado anteriormente, este modelo es muy utilizado para aplicaciones y estimaciones con enfoque Bayesiano, por lo que resulta muy útil conocer las propiedades mostradas en el capítulo anterior, así como también es de interés discutir algunos aspectos inferenciales del mismo. Es por esto, que en principio se presenta el desarrollo del cálculo de la Matriz de Información para el caso univariado, el que es equivalente al modelo planteado por Arellano-Valle y Azzalini 2008. Luego, se calcula la Matriz de Información para el caso multivariado. Finalmente, se obtiene el caso univariado en base a los resultados obtenidos para el caso multivariado. 38

39 3.1. Matriz de Información: Caso Univariado El objetivo de esta sección es calcular la Matriz de Información para la distribución skew-normal, con la reparametrización planteada en la sección 2.5, para el caso univariado. La razón por la que se comenzará con este caso particular, es que se tiene el resultado de esta matriz con la parametrización de Arellano-Valle y Azzalini 2008, y es en el caso univariado en donde estas distruciones son equivalentes. Al finalizar esta sección se hará la transformación de la matriz obtenida a la parametrización de Arellano-Valle y Azzalini 2008 y se confirmará su igualdad. Teorema 3.1 Sea Y SNG 1,1 µ, σ 2, λ, el caso univariado de la distribución Skew-Nomal presentado en la sección 2.5. Entonces, la Matriz de Información es: Iµ, σ 2, λ = I 11 I 12 I 13 I 12 I 22 I 23 I 13 I 23 I 33 donde, 1 I 11 ν = σ 2 + λ 2 + c λ 2 2a 0 σ 2 σ 2 + λ 2 I 22 ν = 1 1 2 σ 2 + λ 2 2 + 1 4 c λ 2 2σ 2 + λ 2 2 2A 2 σ 2 3 σ 2 + λ 2 3 λ 2 I 33 ν = 2 σ 2 + λ 2 2 + c σ 2 2A 2 σ 2 + λ 2 3 2 1/2 λ I 12 ν = σ 2 + λ 2 2 1 2 c λ2σ 2 + λ 2 1 σ 2 1/2 σ 2 + λ 2 5/2 + 1 2 c λ 2 2σ 2 + λ 2 2a 1 σ 2 2 σ 2 + λ 2 2 2 1/2 λ 2 I 13 ν = 2 σ 2 + λ 2 2 + c σ 2 3/2 1 σ 2 + λ 2 5/2 c λ 2a 1 σ 2 + λ 2 2 I 23 ν = λ σ 2 + λ 2 2 1 2 c 2A 2 λ2σ 2 + λ 2 σ 2 σ 2 + λ 2 3

40 y con W N 0, σ2 σ 2 +λ 2 σ 2 +2λ 2 c 1 = c 2 = 2 1/2 σ 2 σ 2 + λ 2 1 1/2 σ 2 σ 2 + 2λ 2 1/2 1/2 a 0 = E Φ λw σ 2 1/2 σ 2 + λ 2 1/2 a 1 = E W Φ λw σ 2 1/2 σ 2 + λ 2 1/2 A 2 = E W 2 Φ λw σ 2 1/2 σ 2 + λ 2 1/2

41 Dem. Sea Y SNG 1,1 µ, σ 2, λ, se tiene que fy µ, σ 2, λ = 2ϕ y µ σ 2 + λ 2 λ Φ σ 2 y µ + λ2 1 λ2 σ 2 + λ 2 Si llamamos ζ 0 x = logφx entonces la log-verosimilitud es: lµ, σ 2, λ = cte 1 2 logσ2 + λ 2 1 y µ 2 λ 2 σ 2 + λ 2 + ζ y µ 0 σ σ 2 + λ 2 Si llamamos ν = µ, σ 2, λ y ζ 1 es la derivada de ζ 0, se tiene que 1 y µ y µ2 dlν = 2σ 2 + λ 2 dσ + 2λdλ σ 2 dµ + + λ2 2σ 2 + λ 2 dσ + 2λdλ 2 [ λy µ y µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dλ + λ σ 2 1/2 σ 2 + λ 2 dµ 1/2 ] 1 λy µ 2 σ 2 3/2 σ 2 + λ 2 1/2 dσ2 1 λy µ 2 σ 2 1/2 σ 2 + λ 2 3/2 dσ2 + 2λdλ 1 λ y µ y = 2σ 2 + λ 2 dσ2 µ2 λy σ 2 dλ + + λ2 σ 2 dµ + + λ2 2σ 2 + λ 2 2 dσ2 µ2 + σ 2 + λ 2 2 dλ [ λy µ y µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dλ λ σ 2 1/2 σ 2 + λ 2 dµ 1/2 = y µ [ y µ 2 σ 2 + λ 2 dµ + 2σ 2 + λ 2 2 1 [ λy µ +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 λy µ 2σ 2 3/2 σ 2 + λ 2 1/2 dσ2 ] λ 2 y µ σ 2 1/2 σ 2 + λ 2 dλ 3/2 ] dσ 2 + 2σ 2 + λ 2 λy µ 2σ 2 1/2 σ 2 + λ 2 3/2 dσ2 [ ] λy µ 2 σ 2 + λ 2 2 λ σ 2 + λ 2 dλ λ σ 2 1/2 σ 2 + λ 2 1/2 dµ λy µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 ] σ 2 y µ + σ 2 1/2 σ 2 + λ 2 dλ 3/2

42 Ahora, si ζ 2 es la segunda derivada de ζ 0, al calcular la segunda derivada se tiene que d 2 lν = 1 σ 2 + λ 2 dµ2 y µ σ 2 + λ 2 2 dµdσ2 + 2λdλ + y µ σ 2 + λ 2 2 dµdσ2 y µ2 σ 2 + λ 2 3 dσ2 dσ + 2λdλ + 1 2σ 2 + λ 2 2 dσ2 dσ 2 + 2λdλ + y µ2 σ 2 + λ 2 2 dλ2 2λy µ 2λy µ2 + σ 2 + λ 2 dλ dµ 2 σ 2 + λ 2 2 dλdσ2 + 2λdλ 1 λ σ 2 + λ 2 dλ2 + σ 2 + λ 2 2 dλdσ2 + 2λdλ [ λy µ λ +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµ λy µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 σ 2 y µ + σ 2 1/2 σ 2 + λ 2 dλ 3/2 [ λy µ 1 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµdλ + λ 2σ 2 3/2 σ 2 + λ 2 1/2 dµdσ2 λ + 2σ 2 1/2 σ 2 + λ 2 3/2 dµdσ2 + 2λdλ y µ2σ2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 λ2σ 2 + λ 2 λy µ 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dµ 2σ 2 3/2 σ 2 + λ 2 3/2 2dσ2 + 2λdλdσ 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 5/2 σ 2 + λ 2 3/2 dσ2 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 dσ 2 + 2λdλ y µ σ 2 + σ 2 1/2 σ 2 + λ 2 3/2 dλdσ2 + σ 1/2 σ 2 + λ 2 dλ dµ 3/2 ] σ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 3 σ 2 y µ 2 σ 2 1/2 σ 2 + λ 2 5/2 dλdσ2 + 2λdλ ] 2

43 d 2 lν = 1 σ 2 + λ 2 dµ2 y µ 2λy µ σ 2 + λ 2 2 dµdσ2 σ 2 + λ 2 dµdλ y µ σ 2 + λ 2 2 dµdσ2 y µ2 σ 2 + λ 2 3 dσ2 2 2λy µ2 σ 2 + λ 2 3 dσ2 dλ + 1 2σ 2 + λ 2 2 dσ2 2 + λ σ 2 + λ 2 2 dσ2 dλ y µ2 2λy µ + σ 2 + λ 2 2 dλ2 σ 2 + λ 2 2 dµdλ 1 λ σ 2 + λ 2 dλ2 + σ 2 + λ 2 2 dσ2 dλ 2λ 2 2λy + σ 2 + λ 2 2 dλ2 µ2 σ 2 + λ 2 3 dσ2 dλ 4λ2 y µ 2 σ 2 + λ 2 3 dλ2 [ λy µ λ 2 +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 σ 2 + λ 2 dµ2 + λ2 y µ 2 2σ 2 + λ 2 4σ 2 3 σ 2 + λ 2 3 dσ 2 2 + σ2 2 y µ 2 σ 2 σ 2 + λ 2 3 dλ2 + 2λ2 y µσ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ 2 2λσ2 y µ σ 2 σ 2 + λ 2 2 dµdλ 2λσ2 y µ 2 σ 2 + λ 2 σ 2 2 σ 2 + λ 2 3 dσ 2 dλ [ λy µ 1 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 σ 2 1/2 σ 2 + λ 2 1/2 dµdλ + λ 2σ 2 3/2 σ 2 + λ 2 1/2 dµdσ2 λ λ 2 + 2σ 2 1/2 σ 2 + λ 2 3/2 dµdσ2 + σ 2 1/2 σ 2 + λ 2 dµdλ 3/2 y µ2σ2 + λ 2 λ2σ 2 + λ 2 2σ 2 3/2 σ 2 + λ 2 3/2 dλdσ2 + 2σ 2 3/2 σ 2 + λ 2 3/2 dµdσ2 λy µ σ 2 3/2 σ 2 + λ 2 3/2 dσ2 2 λ 2 y µ σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dλ + 3 λy µ2σ 2 + λ 2 4 σ 2 5/2 σ 2 + λ 2 3/2 dσ2 2 + 3 λy µ2σ 2 + λ 2 4 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 2 + 3 λ 2 y µ2σ 2 + λ 2 y µ 2 σ 2 3/2 σ 2 + λ 2 5/2 dσ2 dλ + σ 2 1/2 σ 2 + λ 2 3/2 dσ2 dλ σ 2 σ 2 1/2 σ 2 + λ 2 3/2 dµdλ σ 2 y µ 2σ 2 3/2 σ 2 + λ 2 3/2 dσ2 dλ ] 3 σ 2 y µ 3λσ 2 y µ 2 σ 2 1/2 σ 2 + λ 2 5/2 dσ2 dλ σ 2 1/2 σ 2 + λ 2 dλ2 5/2 ]

44 [ d 2 lν = 1 ] [ ] σ 2 + λ 2 dµ 2 1 y µ2 + 2σ 2 + λ 2 2 σ 2 + λ 2 3 dσ 2 2 [ y µ 2 + σ 2 + λ 2 2 + 2λ 2 σ 2 + λ 2 2 1 σ 2 + λ 2 4λ2 y µ 2 ] [ σ 2 + λ 2 3 dλ 2 2y µ + σ 2 + λ 2 2 [ ] [ 4λy µ 2λ 2λy µ2 2λy µ2 + σ 2 + λ 2 2 dµdλ + σ 2 + λ 2 2 σ 2 + λ 2 3 σ 2 + λ 2 3 [ λy µ λ 2 +ζ 2 σ 2 1/2 σ 2 + λ 2 1/2 ] dσ 2 dλ σ 2 σ 2 + λ 2 dµ2 + λ2 y µ 2 2σ 2 + λ 2 2 4σ 2 3 σ 2 + λ 2 3 dσ 2 2 ] dµdσ 2 + σ2 2 y µ 2 σ 2 σ 2 + λ 2 3 dλ2 + λ2 y µ2σ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ 2 ] 2λy µ σ 2 + λ 2 2 dµdλ λy µ2 2σ 2 + λ 2 σ 2 σ 2 + λ 2 3 dσ 2 dλ [ λy µ 3 λy µ2σ 2 + λ 2 2 +ζ 1 σ 2 1/2 σ 2 + λ 2 1/2 4 σ 2 5/2 σ 2 + λ 2 5/2 λy µ σ 2 3/2 σ 2 + λ 2 3/2 dσ 2 2 3σ 2 λy µ + σ 2 1/2 σ 2 + λ 2 5/2 dλ 2 2σ 2 + σ 2 1/2 σ 2 + λ 2 3/2 dµdλ + dµdσ 2 + dσ 2 dλ λ2σ 2 + λ 2 σ 2 3/2 σ 2 + λ 2 3/2 2σ2 + λ 2 y µ σ 2 1/2 σ 2 + λ 2 5/2 ]

45 Para el cálculo de la esparanza ocuparemos algunas de las propiedades enunciadas en el capítulo 2. Así, tomando es cuenta que ζ 2 x = ζ 1 xx + ζ 1 x, E d 2 lν = 1 σ 2 + λ 2 dµ2 + 2 +2 1 2σ 2 + λ 2 2 dσ2 2 + 1/2 λ σ 2 + λ 2 2 dµdσ2 + 4 2λ 2 σ 2 + λ 2 2 dλ2 2 1/2 λ 2 λ 2 2λ +c 2 a 0 σ 2 σ 2 + λ 2 dµ2 + σ 2 + λ 2 2 dσ2 dλ λ 2 2σ 2 + λ 2 2 +c 2 A 2 4σ 2 3 σ 2 + λ 2 3 dσ2 2 + σ 2 λ + c 1 σ 2 1/2 σ 2 + λ 2 1/2 + c 2a 1 λ 2 2σ 2 + λ 2 σ 2 2 σ 2 + λ 2 2 dµdσ2 c 1 σ 2 + λ 2 2 dµdλ σ 2 σ 2 + λ 2 3 dλ2 λ2σ2 + λ 2 σ 2 σ 2 + λ 2 3 dσ2 dλ 2λ σ 2 + λ 2 2 dµdλ 2σ2 1/2 σ 2 + λ 2 3/2 dµdλ + λ2σ 2 + λ 2 σ 2 3/2 σ 2 + λ 2 3/2 dµdσ2 Finalmente, las expresiones de las esperanzas que componen la Matriz de Información son: 1 I 11 ν = σ 2 + λ 2 + c λ 2 2a 0 σ 2 σ 2 + λ 2 I 22 ν = 1 1 2 σ 2 + λ 2 2 + 1 4 c λ 2 2σ 2 + λ 2 2 2A 2 σ 2 3 σ 2 + λ 2 3 λ 2 I 33 ν = 2 σ 2 + λ 2 2 + c σ 2 2A 2 σ 2 + λ 2 3 2 1/2 λ I 12 ν = σ 2 + λ 2 2 1 2 c λ2σ 2 + λ 2 1 σ 2 1/2 σ 2 + λ 2 5/2 + 1 2 c λ 2 2σ 2 + λ 2 2a 1 σ 2 2 σ 2 + λ 2 2 2 1/2 λ 2 I 13 ν = 2 σ 2 + λ 2 2 + c σ 2 3/2 1 σ 2 + λ 2 5/2 c λ 2a 1 σ 2 + λ 2 2 I 23 ν = λ σ 2 + λ 2 2 1 2 c 2A 2 λ2σ 2 + λ 2 σ 2 σ 2 + λ 2 3 En la sección 5.2 se comparan las matrices de información del modelo planteado por Arellano- Valle & Azzalini 2008 contra el utilizado en este trabajo en el caso univariado, ya que para este caso, los modelos son equivalentes.

46 3.2. Matriz de Información: Caso Multivariado En esta sección se calculará la Matriz de Información usando la parametrización señalada en la sección 2.5 en el caso multivariado. Para esto, se calculará el cuadrado de la primera derivada de la log-verosimilitud, para luego calcular la esperanza de esta expresión. Teorema 3.2 Sea Y SNG k,m µ, Σ, Λ. Entonces, la Matriz de Información es: I 11 I 12 I 13 Iµ, vσ, vecλ = I 12 I 22 I 23 I 13 I 23 I 33 donde, I 11 = 1 2 Σ + Λ Λ Λ ΛΣ + Λ Λ + 2 Σ + Λ Λ Λ 1 m 1 mλ Σ + Λ Λ + Σ + Λ Λ Σ Σ + Λ Λ Σ + Λ Λ R 1 ΛΣ + Λ Λ +Σ + Λ Λ Λ R 2 ΛΣ + Λ Λ

47 I 22 = 1 4 D vec Σ + Λ Λ vec Σ + Λ Λ D + 1 4 D Σ + Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ D + 1 4 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +D Σ + Λ Λ Λ 2 R 4 Σ + Λ Λ Λ D 1 2 D vec Σ + Λ Λ vec Λ Λ Σ + Λ Λ Σ + Λ Λ D 1 2 1 D vec Σ + Λ Λ vec Λ 1 m 1mΛ Σ + Λ Λ Σ + Λ Λ D 1 2 D vec Σ + Λ Λ vecσ Σ + Λ Λ Σ + Λ Λ D 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +D vec Σ + Λ Λ vecr 1 Σ + Λ Λ Λ D + 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ D D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Λ D D Σ + Λ Λ Λ Σ + Λ Λ Λ 2 R 8 Σ + Λ Λ Λ D

48 I 33 = Σ + Λ Λ Λ veci k veci k Σ + Λ Λ Λ + Σ + Λ Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Λ I m R 3 Λ Σ + Λ Λ Im + Σ + Λ Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Im R 4 Σ + Λ Λ Im 2 +4 Σ + Λ Λ ΛΛ 2 R 4 Σ + Λ Λ ΛΛ 2 1 2 Σ + Λ Λ Λ veci k vec Λ Λ Σ + Λ Λ Σ + Λ Λ Λ 4 Σ + Λ Λ Λ veci k vec Λ 1 m 1 mλ Σ + Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ veci k vec Σ Σ + Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ veci k vecr 5 Λ Σ + Λ Λ Im 2 Σ + Λ Λ Λ veci k vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ veci k vecr 1 Σ + Λ Λ Im +4 Σ + Λ Λ Λ veci k vecr 1 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Im +2 Σ + Λ Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Im 2 4 Σ + Λ Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ I m R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Σ + Λ Λ Λ I m R 8 Σ + Λ Λ Im 2 +4 Σ + Λ Λ Λ I m R 8 Σ + Λ Λ ΛΛ +2 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ R 8 Σ + Λ Λ Im 4 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 R 8 Σ + Λ Λ ΛΛ 2 4 Σ + Λ Λ Im R 4 Σ + Λ Λ ΛΛ

49 I 12 = 1 2 2 + 1 2 1/2 Σ + Λ Λ Λ 1 m vec Σ + Λ Λ D Σ + Λ Λ E2 Σ + Λ Λ Σ + Λ Λ D Σ + Λ Λ R9 Λ Σ + Λ Λ Λ Σ + Λ Λ D + 1 2 2 Σ + Λ Λ R10 Σ + Λ Λ Λ D + 1 2 Σ + Λ Λ Λ R 11 vec Σ + Λ Λ D 1 Σ + Λ Λ Λ R 12 Σ + Λ Λ Σ + Λ Λ D 2 1 Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 2 + Σ + Λ Λ Λ R 14 Σ + Λ Λ Λ D 2 I 13 = 1/2 Σ + Λ Λ Λ 1 m veci k Σ + Λ Λ Λ + Σ + Λ Λ E2 Σ + Λ Λ Σ + Λ Λ Λ Σ + Λ Λ R9 Λ Σ + Λ Λ Im + Σ + Λ Λ R9 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ R10 Σ + Λ Λ Im 2 2 Σ + Λ Λ R10 Σ + Λ Λ ΛΛ + Σ + Λ Λ Λ R 11 veci k Σ + Λ Λ Λ Σ + Λ Λ Λ R 12 Σ + Λ Λ Σ + Λ Λ Λ + Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Im Σ + Λ Λ Λ R 13 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ Σ + Λ Λ Λ R 14 Σ + Λ Λ Im 2 +2 Σ + Λ Λ Λ R 14 Σ + Λ Λ ΛΛ

50 I 23 = 1 2 D vec Σ + Λ Λ veci k Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vec Λ Λ Σ + Λ Λ Σ + Λ Λ Λ 1 2 1 D vec Σ + Λ Λ vec Λ 1 m 1mΛ Σ + Λ Λ Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecσ Σ + Λ Λ Σ + Λ Λ Λ + 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Im 1 2 D vec Σ + Λ Λ vecr 5 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecr 1 Σ + Λ Λ Im 2 +D vec Σ + Λ Λ vecr 1 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Σ + Λ Λ vec Λ Λ veci k Σ + Λ Λ Λ 1 2 1 D Σ + Λ Λ Σ + Λ Λ vecλ 1 m 1 mλveci k Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Σ + Λ Λ vecσveci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ E 1 Σ + Λ Λ Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Im + 1 2 D Σ + Λ Λ Σ + Λ Λ R 6 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ Im 2 D Σ + Λ Λ Σ + Λ Λ R 7 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ vecr 5 veci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 6 Σ + Λ Λ Σ + Λ Λ Λ 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Im + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 3 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ R 8 Σ + Λ Λ Im

51 D Σ + Λ Λ Λ Σ + Λ Λ Λ 2 A 8 Σ + Λ Λ ΛΛ 2 +D Σ + Λ Λ Λ vecr 1 veci k Σ + Λ Λ Λ 2 D Σ + Λ Λ Λ R 7 2 +D Σ + Λ Λ Λ R 8 Σ + Λ Λ Σ + Λ Λ Λ Λ Σ + Λ Λ Im 2 D Σ + Λ Λ Λ R 4 Σ + Λ Λ Im 2 D Σ + Λ Λ Λ R 8 Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 +2D Σ + Λ Λ Λ 2 R 4 Σ + Λ Λ ΛΛ

52 donde E 1 = E S 0 S 0 E 2 = E S 0 y 0 fueron definidos en el Teorema 2.6.1, y R 1 = E Ψηy 0 q m R 2 = E Ψ 2 ηq m q m Ψ 2 ηvecq m vecq m R 3 = E R 4 = E Ψ 2 η S 0 q m q m R 5 = E ΨηQ m R 6 = E ΨηvecS 0 vecq m R 7 = E Ψη S 0 y 0 q m R 8 = E Ψ 2 ηvecq m vecq m y 0 R 9 = E Ψηy 0 vecq m R 10 = E Ψη S 0 q m R 11 = E Ψηq m R 12 = E Ψηq m vecs 0 R 13 = E Ψ 2 ηq m vecq m R 14 = E Ψ 2 η y 0 q m q m

53 Dem. Sea Y SNG k,m µ, Σ, Λ, se tiene que fy µ, Σ, Λ = 2 m ϕ k y µ Σ + Λ Λ Φ m ΛΣ + Λ Λ y µ 0, I m ΛΣ + Λ Λ Λ Denotando y 0 = y µ y S 0 = y 0 y 0, la log-verosimilitud es: lµ, Σ, Λ = cte 1 2 log Σ + Λ Λ 1 { } 2 tr Σ + Λ Λ S 0 +log Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ y la primera derivada de la log-verosimilitud es dlµ, Σ, Λ = 1 } {Σ 2 tr + Λ Λ dσ + Λ Λ 1 { 2 tr Σ + Λ Λ dσ + Λ ΛΣ + Λ Λ S 0 Σ + Λ Λ dµy 0 + y 0 dµ } ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ = 1 } { } {Σ 2 tr + Λ Λ dσ tr Σ + Λ Λ Λ dλ + 1 { } } 2 tr Σ + Λ Λ dσσ + Λ Λ S 0 + tr {Σ + Λ Λ Λ dλσ + Λ Λ S 0 +tr {Σ + Λ Λ y 0 dµ } ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ = 1 2 vecdσ vec Σ + Λ Λ vecdλ Σ + Λ Λ Λ veci k + 1 2 vecdσ Σ + Λ Λ Σ + Λ Λ vecs 0 +vecdλ Σ + Λ Λ Λ Σ + Λ Λ vecs 0 +dµ Σ + Λ Λ y0 ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ +Φ m d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ

54 Para calcular d Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ usamos el teorema 2.2.4 con α = Λ Σ + Λ Λ y0, β = 0 y Γ = I m Λ Σ + Λ Λ Λ con lo que se obtiene que dα = dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ + 2Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ = dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ Σ + Λ Λ y0 2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ dγ = dλ Σ + Λ Λ Λ Λ Σ + Λ Λ dσ + 2Λ dλ Σ + Λ Λ Λ Λ Σ + Λ Λ dλ = 2dΛ Σ + Λ Λ Λ + Λ Σ + Λ Λ dσ Σ + Λ Λ Λ +2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ y q m = Φ m Λ Q m = Φ m Σ + Λ Λ 0, y0 Im Λ Σ + Λ Λ Λ Λ Σ + Λ Λ 0, y0 Im Λ Σ + Λ Λ Λ

55 Por lo tanto, d Φ m α β, Γ = 1 2 vec 2dΛ Σ + Λ Λ Λ + Λ Σ + Λ Λ dσ Σ + Λ Λ Λ +q m +2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ vecq m dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dσ Σ + Λ Λ y0 2Λ Σ + Λ Λ Λ dλ Σ + Λ Λ y0 Λ Σ + Λ Λ dµ = vec dλ Σ + Λ Λ Λ vecq m + 1 Λ 2 vec Σ + Λ Λ dσ Σ + Λ Λ Λ vecq m +vec Λ Σ + Λ Λ Λ dλ Σ + Λ Λ Λ vecq m +q mdλ Σ + Λ Λ y0 q mλ 2q mλ Σ + Λ Λ Λ dλ Σ + Λ Λ dσ Σ + Λ Λ y0 q mλ = vec dλ Σ + Λ Λ Λ I m vecq m + 1 2 vecdσ Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m Σ + Λ Λ y0 Σ + Λ Λ dµ +vecdλ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Im vec q m y 0 2 vecdσ Σ + Λ Λ Λ vec q m y 0 2 2vecdΛ Σ + Λ Λ ΛΛ vec q m y 0 q mλ Σ + Λ Λ dµ

56 d Φ m α β, Γ = vec dλ Σ + Λ Λ Λ I m vecq m + 1 2 dvσ D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +vecdλ Σ + Λ Λ Im vec q m y 0 2 dvσ D Σ + Λ Λ Λ vec q m y 0 2 2vecdΛ Σ + Λ Λ ΛΛ vec q m y 0 q mλ Σ + Λ Λ dµ donde D es la matriz de Duplicación definida en el capítulo 2. Sigue que d dµ Φ m α β, Γ = Σ + Λ Λ Λ q m d dvσ Φ m α β, Γ = 1 2 D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m d dvecλ Φ m α β, Γ = 2 D Σ + Λ Λ Λ vec q m y 0 Σ + Λ Λ Λ I m vecq m + Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m + Σ + Λ Λ Im vec q m y 0 2 2 Σ + Λ Λ ΛΛ vec q m y 0 con α = Λ Σ + Λ Λ y0, β = 0 y Γ = I m Λ Σ + Λ Λ Λ

57 Por lo que, si llamamos Ψη = Φ m ΛΣ + Λ Λ y 0 0, I m ΛΣ + Λ Λ Λ, se tiene que dlµ, Σ, Λ = 1 2 dvσ D vec Σ + Λ Λ vecdλ Σ + Λ Λ Λ veci k + 1 2 dvσ D Σ + Λ Λ Σ + Λ Λ vecs 0 +vecdλ Σ + Λ Λ Λ Σ + Λ Λ vecs 0 +dµ Σ + Λ Λ y0 ΨηvecdΛ Σ + Λ Λ Λ I m vecq m + 1 2 ΨηdvΣ D Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m +ΨηvecdΛ Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +ΨηvecdΛ Σ + Λ Λ Im vec q m y 0 2 ΨηdvΣ D Σ + Λ Λ Λ vec q m y 0 2 2ΨηvecdΛ Σ + Λ Λ ΛΛ vec q m y 0 Ψηq m Λ Σ + Λ Λ dµ

58 Las ecuaciones de verosimilitud son d dµ lµ, Σ, Λ = Σ + Λ Λ y0 Ψη Σ + Λ Λ Λ q m Σ + Λ Λ d dvσ lµ, Σ, Λ = 2 D vec d lµ, Σ, Λ = dvecλ + 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 + 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m 2 ΨηD Σ + Λ Λ Λ vec q m y 0 Σ + Λ Λ Λ veci k + Σ + Λ Λ Λ Σ + Λ Λ vecs 0 Ψη Σ + Λ Λ Λ I m vecq m +Ψη Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m +Ψη Σ + Λ Λ Im vec q m y 0 2 2Ψη Σ + Λ Λ ΛΛ vec q m y 0

59 Ahora, el cuadrado del Score para cada parámetro es S µ S µ = dµ [ Σ + Λ Λ S 0 Σ + Λ Λ ΨηΣ + Λ Λ y 0 q mλσ + Λ Λ +Ψ 2 ησ + Λ Λ Λ q m q mλσ + Λ Λ ]dµ S Σ SΣ = dvσ [ 1 4 D vec Σ + Λ Λ vec Σ + Λ Λ D + 1 4 D Σ + Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ D + 1 4 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +Ψ 2 ηd Σ + Λ Λ Λ 2 vecq m y 0 vecq m y 0 Σ + Λ Λ Λ D 1 2 D vec Σ + Λ Λ vecs 0 Σ + Λ Λ Σ + Λ Λ D 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 +ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ Λ D + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Λ D ] Ψ 2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ Λ D dvσ

60 S Λ SΛ = vecdλ [ Σ + Λ Λ Λ veci k veci k Σ + Λ Λ Λ + Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m Λ Σ + Λ Λ Im +Ψ 2 η Σ + Λ Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Im vecq m y 0 vecq m y 0 Σ + Λ Λ Im 2 +4Ψ 2 η Σ + Λ Λ ΛΛ 2 vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ 2 Σ + Λ Λ Λ veci k vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +2Ψη Σ + Λ Λ Λ veci k vecq m Λ Σ + Λ Λ Im 2Ψη Σ + Λ Λ Λ veci k vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2Ψη Σ + Λ Λ Λ veci k vecq m y 0 Σ + Λ Λ Im +4Ψη Σ + Λ Λ Λ veci k vecq m y 0 Σ + Λ Λ ΛΛ 2Ψη Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Im +2Ψη Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +2 Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Im 2 4 Σ + Λ Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ ΛΛ 2Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m y 0 Σ + Λ Λ Im 2 +4Ψ 2 η Σ + Λ Λ Λ I m vecq m vecq m y 0 Σ + Λ Λ ΛΛ +2Ψ 2 η Λ Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m y 0 Σ + Λ Λ Im 4Ψ 2 η Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ ΛΛ ] 2 4Ψ 2 η Σ + Λ Λ Im vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ vecdλ

61 [ S µ SΣ = dµ 1 Σ + Λ Λ y0 vec Σ + Λ Λ D 2 + 1 Σ + Λ Λ y0 vecs 0 Σ + Λ Λ Σ + Λ Λ D 2 + 1 Σ 2 Ψη + Λ Λ y0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D 2 Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ Λ D + 1 Σ 2 Ψη + Λ Λ Λ q m vec Σ + Λ Λ D 1 Σ 2 Ψη + Λ Λ Λ q m vecs 0 Σ + Λ Λ Σ + Λ Λ D 1 2 Ψ2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ D ] 2 +Ψ 2 η Σ + Λ Λ Λ q m vecq m y 0 Σ + Λ Λ Λ D dvσ [ S µ SΛ = dµ Σ + Λ Λ y0 veci k Σ + Λ Λ Λ + Σ + Λ Λ y0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ Ψη Σ + Λ Λ y0 vecq m Λ Σ + Λ Λ Im +Ψη Σ + Λ Λ y0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ +Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ Im 2 2Ψη Σ + Λ Λ y0 vecq m y 0 Σ + Λ Λ ΛΛ +Ψη Σ + Λ Λ Λ q m veci k Σ + Λ Λ Λ Ψη Σ + Λ Λ Λ q m vecs 0 Σ + Λ Λ Σ + Λ Λ Λ +Ψ 2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Im Ψ 2 η Σ + Λ Λ Λ q m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ Ψ 2 η Σ + Λ Λ Λ q m vecq m y 0 Σ + Λ Λ Im +2Ψ 2 η Σ + Λ Λ ] 2 Λ q m vecq m y 0 Σ + Λ Λ ΛΛ vecdλ

62 [ S Σ SΛ = dvσ 1 2 D vec Σ + Λ Λ veci k Σ + Λ Λ Λ 1 2 D vec Σ + Λ Λ vecs 0 Σ + Λ Λ Σ + Λ Λ Λ + 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Im 1 2 ΨηD vec Σ + Λ Λ vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 1 2 ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ Im 2 +ΨηD vec Σ + Λ Λ vecq m y 0 Σ + Λ Λ ΛΛ 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 veci k Σ + Λ Λ Λ + 1 2 D Σ + Λ Λ Σ + Λ Λ vecs 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Im + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ Im 2 ΨηD Σ + Λ Λ Σ + Λ Λ vecs 0 vecq m y 0 Σ + Λ Λ ΛΛ 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m veci k Σ + Λ Λ Λ + 1 2 ΨηD Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecs 0 Σ + Λ Λ Σ + Λ Λ Λ

63 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Im + 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ + 1 2 Ψ2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ vecq m vecq m y 0 Σ + Λ Λ Im Ψ 2 ηd Σ + Λ Λ Λ Σ + Λ Λ Λ 2 vecq m vecq m y 0 Σ + Λ Λ ΛΛ 2 +ΨηD Σ + Λ Λ Λ vecq m y 0 veci k Σ + Λ Λ Λ 2 ΨηD Σ + Λ Λ Λ vecq m y 0 vecs 0 Σ + Λ Λ Σ + Λ Λ Λ 2 +Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m Λ Σ + Λ Λ Im 2 Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m Λ Σ + Λ Λ Λ Σ + Λ Λ Λ 2 Ψ 2 ηd Σ + Λ Λ Λ vecq m y 0 vecq m y 0 Σ + Λ Λ Im 2 +2Ψ 2 ηd Σ + Λ Λ Λ ] 2 vecq m y 0 vecq m y 0 Σ + Λ Λ ΛΛ vecdλ La Matriz de Información sigue de aplicar las esperanzas para cada cuadrado del Score. En la sección 5.3 se obtiene con exito, el caso particular univariado de esta Matriz de Información. Como se pudo apreciar a lo largo de esta sección, para calcular la Matriz de Información de este modelo en el caso multivariado, fue necesario conocer y aplicar todas las propiedades revisadas en el capítulo anterior, las que no solo comprometen a la distribución Skew-Normal, sino que también se refieren a otras distribuciones, tales como la Half-Normal y la Normla Truncada. La obtención de la Matriz de Información para el caso multivariado en el modelo planteado en este trabajo, es una herramienta útil para el estudio de las propiedades de los estimadores de máxima verosimilitud desde el punto de vista clásico y también es un resultado útil para el desarrollo de modelos paramétricos con enfoque bayesiano.

Capítulo 4 Conclusiones El desarrollo del presente trabajo consistió en la exploración de algunas propiedades no estudiadas de la familia de distribcuiones Skew-Normal basándose en el modelo presentado por Azzalini y Genton 2005. Para lograr este objetivo se revisaron ciertos conceptos, tales como el producto directo entre dos matrices, la vectorización de una matriz y la matriz de duplicación y conmutación. Luego, se estudiaron algunas propiedades para distribuciones relacionadas con la distribución Skew-Normal, tal como la distribución Normal truncada, para la cual se calculó la función generadora de momentos, con lo que se obtuvo los dos primeros momentos. Para la distribución Normal Multivariada se calcularon algunos momentos no conocidos y se obtuvo la forma de d Φ m α β, Γ. Para la distribución Half-Normal se calcularon algunos momentos necesarios para el cálculo de la matriz de información. Al calcular la matriz de información para el caso univariado, se logró llegar a los mismos resultados que la parametrización usada en Arellano-Valle y Azzalini 2008 a través de la matriz jacobiana. Al calcular la matriz de información para el caso multivariado se utilizó la mayoría de los resultados que se presentaron anteriormente, con lo que se llegó a la forma general de la matriz, la que tiene componentes que deben calcularse numericamente. 64